Computer >> 컴퓨터 >  >> 체계 >> Windows

Windows 10에 Hadoop 및 Hive를 설치하는 방법은 무엇입니까?

Windows 10에 Hadoop을 설치하려면 어떻게 합니까?

이제 설치 프로세스를 시작하겠습니다.

  1. 1단계 – Hadoop 바이너리 패키지를 다운로드합니다. …
  2. 2단계 – 포장을 풉니다. …
  3. 3단계 – Hadoop 기본 IO 바이너리를 설치합니다. …
  4. 4단계 – (선택 사항) Java JDK 설치. …
  5. 5단계 – 환경 변수를 구성합니다. …
  6. 6단계 – Hadoop을 구성합니다. …
  7. 7단계 – HDFS 초기화 및 버그 수정

Windows 10에 Hadoop을 설치할 수 있나요?

1 Windows 10의 단일 노드 클러스터. 2년 전 프로젝트를 진행하면서 Hadoop 3.1 설치에 대한 단계별 가이드를 작성했습니다. 현재 Windows 10에 Hadoop 클러스터를 설치해야 하는 새 프로젝트를 진행 중이므로 이 프로세스에 대한 가이드를 작성하기로 결정했습니다. …

Windows에 Hive를 설치할 수 있습니까?

이제 hadoop의 설치가 완료되었으므로 이제 HIVE 설치를 진행합니다. 적절한 Java 버전이 표시되어야 합니다. 적절한 하둡 버전이 표시되어야 합니다. 다운로드한 HIVE tar 파일을 C 드라이브에 붙여넣습니다(예:C:hiveapache-hive-2.1).

Windows 10에 Hadoop 및 Spark를 설치하려면 어떻게 합니까?

Windows 10에 Apache Spark를 설치하는 방법

  1. Windows에 Apache Spark를 설치합니다. 1단계:Java 8을 설치합니다. 2단계:Python을 설치합니다. 3단계:Apache Spark를 다운로드합니다. 4단계:Spark 소프트웨어 파일을 확인합니다. 5단계:Apache Spark를 설치합니다. 6단계:winutils.exe 파일을 추가합니다. 7단계:환경 변수를 구성합니다. 8단계:Spark를 시작합니다.
  2. 스파크를 테스트합니다.

하둡을 Windows에서 실행할 수 있습니까?

Windows에서 Hadoop을 실행하려면 다음 소프트웨어가 필요합니다. 지원되는 Windows OS:Hadoop은 Windows Server 2008 및 Windows Server 2008 R2, Windows Vista 및 Windows 7을 지원합니다. . … Hadoop은 Java로 작성되었으므로 Oracle JDK 1.6 이상을 설치해야 합니다.

Hadoop을 어떻게 다운로드하고 설치합니까?

하둡 설치

  1. 1단계:Java 8 패키지를 다운로드하려면 여기를 클릭하십시오. …
  2. 2단계:Java Tar 파일을 추출합니다. …
  3. 3단계:Hadoop 2.7.3 패키지를 다운로드합니다. …
  4. 4단계:Hadoop tar 파일을 추출합니다. …
  5. 5단계:bash 파일에 Hadoop 및 Java 경로 추가(. …
  6. 6단계:Hadoop 구성 파일을 편집합니다. …
  7. 7단계:핵심 사이트를 엽니다.

내 노트북에서 Hadoop을 실행할 수 있습니까?

다음은 지난 주에 Hadoop 설치에 대해 배운 내용입니다. Hadoop은 복잡한 설치 프로세스, 많은 클러스터, 수백 대의 머신, 테라바이트(페타바이트는 아닌 경우)의 데이터 등으로 인해 정말 큰 일처럼 들립니다. 그러나 실제로 당신은 간단한 JAR을 다운로드하고 HDFS로 Hadoop을 실행할 수 있습니다. 랩톱에서 연습하세요.

Hadoop이 설치되어 있는지 어떻게 알 수 있나요?

Hadoop 데몬이 실행 중인지 확인하려면 셸에서 jps 명령을 실행하면 됩니다. . 'jps'를 입력하기만 하면 됩니다(JDK가 시스템에 설치되어 있는지 확인하십시오). 실행 중인 모든 Java 프로세스를 나열하고 실행 중인 Hadoop 데몬을 나열합니다.

Hadoop 없이 Hive를 설치할 수 있나요?

Hadoop 없이 Hive에 액세스할 수 있습니까? 아니요, Hadoop 없이 Hive에 액세스할 수 없습니다. 내부적으로 Hive는 맵 축소를 사용하여 실행됩니다.

Windows에서 어떻게 하이브에 연결합니까?

Hive 2에 연결합니다. Windows의 x

  1. HDP 2.5 또는 HDP 2.6 Hadoop 클러스터가 설정되면 LLAP(대화형 쿼리 모드)를 활성화합니다.
  2. ODBC 관리자(64비트)를 사용하여 DSN을 설정합니다. …
  3. 필수 매개변수를 입력합니다. …
  4. Thrift Transport에서 HTTP를 전송 모드로 선택합니다.

로컬 하이브는 어떻게 설정합니까?

~/에 다음 줄을 추가하여 Hive 환경을 설정할 수 있습니다. bashrc 파일:내보내기 HIVE_HOME=/usr/local/hive 내보내기 PATH=$PATH:$HIVE_HOME/bin 내보내기 CLASSPATH=$ 클래스 경로:/usr/local/Hadoop/lib/*:. 내보내기 CLASSPATH=$CLASSPATH:/usr/local/hive/lib/*:.

Windows 10에 Scala를 설치하려면 어떻게 해야 하나요?

Scala 환경 설치

  1. Windows 메뉴에서 터미널 프로그램("액세서리" 아래)을 찾습니다. …
  2. 터미널에 java -version을 입력합니다. …
  3. 터미널에 scala -version을 입력합니다. …
  4. C:Program Files에 zip 파일의 압축을 풉니다. …
  5. 터미널 프로그램을 다시 시작하고 scala라고 말하여 scala를 시작할 수 있는지 확인합니다.

Windows 10에 PySpark를 설치하려면 어떻게 합니까?

Spark만 있으면 됩니다. Windows에 PySpark를 설치하려면 아래 단계를 따르세요.

  1. Spark 다운로드 페이지에서 "Spark 다운로드(포인트 3)" 링크를 선택하여 다운로드합니다. …
  2. 다운로드 후 7zip을 사용하여 바이너리의 압축을 풀고 기본 폴더 spark-3.0.0-bin-hadoop2.7을 c:apps에 복사합니다.
  3. 이제 다음 환경 변수를 설정합니다.

Spark가 설치되어 있는지 어떻게 알 수 있나요?

스파크가 설치되었는지 여부를 어떻게 확인합니까?

  1. Spark shell 터미널을 열고 명령어를 입력하세요.
  2. sc. 버전 또는 spark-submit –version.
  3. 가장 쉬운 방법은 명령줄에서 "spark-shell"을 실행하는 것입니다. 표시됩니다.
  4. 현재 활성 버전의 Spark입니다.

  • Linux
  •   
  • MAC
  •   
  • Windows
  •   
  • Windows 7
  •   
  • Windows 11
  •   
  • Windows 10
  •   
  • windows 8
  •   
  • Windows Server
  •   
  • Android
  •   
  • Chromebook