Windows* 10용 OpenVINO™ Intel® 배포 툴킷 설치 및 구성

소개

기본적으로 이 페이지의 OpenVINO™ 툴킷 설치는 다음 구성 요소를 설치합니다.

컴포넌트

설명

Model Optimizer (모델 최적화)

Model Optimizer 툴은 인기 있는 프레임워크에서 학습된 모델을 인텔 툴, 특히 추론 엔진(Inference Engine) 에서 사용할 수 있는 형식으로 가져오고, 변환하고, 최적화합니다. 인기 있는 프레임워크에는 Caffe*, TensorFlow*, MXNet*, ONNX* 및 Kaldi*가 있습니다.

Inference Engine (추론엔지)

이것은 딥 러닝 모델을 실행하는 엔진입니다. 여기에는 애플리케이션에 쉽게 추론을 통합할 수 있는 라이브러리 세트가 포함되어 있습니다.

인텔® 하드웨어용으로 컴파일된 OpenCV* 커뮤니티 버전입니다.

애플리케이션에서 특정 OpenVINO 기능을 활용하는 방법과 모델 로드, 추론 실행, 특정 장치 기능 쿼리 등과 같은 특정 작업을 수행하는 방법을 보여주는 간단한 명령어 애플리케이션 세트입니다.

다단계 파이프라인 및 특정 딥 러닝 시나리오를 구현하는 데 도움이 되는 강력한 템플릿 역할을 하는 일련의 명령어 응용 프로그램입니다.

추가적인 툴

Accuracy Checker utility , Post-Training Optimization Tool Model Downloader  등을 포함하여 모델과 함께 사용할 수 있는 툴 세트입니다

Documentation for Pre-Trained Models (사전 학습 모델 문서)

Open Model Zoo 리포지토리에서 사용할 수 있는 사전 학습된 모델에 대한 문서입니다.

시스템 요구사항

하드웨어

아래 프로세서들에 최적화되어 있습니다. 

  • 6~12세대 Intel® Core™ 프로세서 및 Intel® Xeon® 프로세서
  • 3세대 Intel® Xeon® Scalable 프로세서(이전의 코드명 Cooper Lake)

  • 인텔® 제온® 확장 가능 프로세서(이전의 Skylake 및 Cascade Lake)

  • Intel® Streaming SIMD Extensions 4.1(Intel® SSE4.1)을 지원하는 Intel Atom® 프로세서

  • Intel® HD 그래픽이 탑재된 Intel Pentium® 프로세서 N4200/5, N3350/5 또는 N3450/5

  • 인텔® Iris® Xe MAX 그래픽

  • 인텔® 뉴럴 컴퓨트 스틱 2

  • Intel® Movidius™ VPU를 사용한 Intel® Vision Accelerator 설계

노트

OpenVINO™ 2020.4 릴리스 이후로 Intel® Movidius™ Neural Compute Stick은 지원되지 않습니다.

프로세서 참고 사항

프로세서 그래픽은 모든 프로세서에 포함되어 있지 않습니다. 프로세서에 대한 정보는 제품 사양을 참고하세요.

운영체제
  • Microsoft Windows* 10, 64-bit

소프트웨어

경고

이 설치의 일부로 Python 3.x를 PATH에 추가 옵션을 클릭하여 PythonPATH 환경 변수에 추가해야 합니다.

개요

이 가이드는 Intel® 배포 OpenVINO™ 툴킷을 설치하는 방법에 대한 단계별 가이드입니다. 다운로드, 초기화 및 설정 단계를 포함하여 호환되는 하드웨어의 각 유형에 대한 링크가 제공됩니다. 다음 단계에서 이러한 내용들을 확인하실 수 있습니다.

1단계: 외부 종속 소프트웨어 설치

다음 종속 소프트웨어를 설치합니다.

노트

커뮤니티 버전을 선택하여 다운로드 할 수 있습니다. Microsoft Visual Studio 설치 가이드에서 설치 과정을 안내합니다. 설치하는 동안 워크로드 탭에서 C++를 사용한 데스크톱 개발 (Desktop development with C++)을 선택합니다. 

노트

설치 마법사인 cmake.msi를 사용하거나 bin 폴더로 이동한 다음 수동으로 환경 변수에 경로를 추가해야 하는 cmake.zip을 사용할 수 있습니다.

      3. Python – 64-bit

경고

이 설치의 일부로 Python 3.x를 PATH에 추가 옵션을 클릭하여 PythonPATH 환경 변수에 추가해야 합니다.

2단계: Intel® 배포 OpenVINO™ 툴킷 핵심 구성 요소 설치

1. Windows*용 인텔® 배포 OpenVINO™ 툴킷 에서 인텔® 배포 OpenVINO™ 툴킷 패키지 파일을 다운로드하세요. 드롭다운 메뉴에서 Windows*용 인텔® 배포 OpenVINO™ 툴킷 패키지를 선택합니다.

2. 다운로드 폴더로 이동하여 w_openvino_toolkit_p_.exe를 더블 클릭합니다. 설치 디렉토리와 구성 요소를 선택할 수 있는 창이 열립니다.

3. 화면의 지시를 따릅니다. 추가 단계를 완료해야 하는 경우에 대비하여 다음과 같은 정보 메시지를 확인하세요.

4. 기본적으로 인텔® OpenVINO™ 은 인텔 문서의 다른 곳에서 <INSTALL_DIR> 로 언급된 C:\Program Files (x86)\Intel\openvino_<version> 디렉터리에 설치됩니다. 단순화를 위해 최신 설치에 대한 바로 가기도 다음과 같이 생성됩니다. C:\Program Files (x86)\Intel\openvino_2021

5. 선택 사항: Customize 을 선택하여 설치 디렉터리 또는 설치하려는 구성 요소를 변경할 수 있습니다.

노트

여러분의 시스템에 이전 버전의 OpenVINO™ 툴킷이 설치되어 있는 경우 설치 프로그램은 재 설치시동일한 대상 디렉토리를 사용합니다. 새 버전을 다른 디렉토리에 설치하려면 이전에 설치된 버전을 제거해야 합니다.

6. Finish (마침) 화면은 핵심 구성 요소가 설치되었음을 나타냅니다.

7. Finish (마침)을 클릭하여 설치 마법사를 닫습니다.

Finish (마침)을 클릭하여 설치 마법사를 닫으면 지금 읽고 있는 문서와 함께 새 브라우저 창이 열리고(이 문서 정보 없이 설치한 경우) 다음 설치 단계가 있는 섹션으로 이동합니다.

이제 핵심 구성 요소가 설치되었습니다. 추가 종속 패키지들을 설치하려면 다음 섹션을 계속진행하세요.

3단계: 환경 구성

노트

인텔®  OpenVINO™를 기본 설치 디렉토리가 아닌 디렉토리에 설치한 경우 이 안내서의 C:\Program Files (x86)\Intel 를 해당 디렉토리로 변경하세요.

OpenVINO™ 애플리케이션을 컴파일하고 실행하기 전에 여러 환경 변수를 업데이트해야 합니다. 명령 프롬프트를 열고 setupvars.bat 배치 파일을 실행하여 환경 변수를 임시로 설정합니다.

"C:\Program Files (x86)\Intel\openvino_2021\bin\setupvars.bat"

노트

윈도우 PowerShell*로 설정 명령들을 실행하지 않는 것이 좋습니다. 대신 명령 프롬프트(cmd)를 사용하세요.

선택 사항: 명령 프롬프트 창을 닫으면 OpenVINO 툴킷 환경 변수가 제거됩니다. 옵션으로 환경 변수를 수동으로 영구적으로 설정할 수 있습니다.

노트

Python을 설치했음에도 Python이 설치되지 않았다는 오류가 표시되면 컴퓨터에서 프로그램을 찾지 못한 경우 일 수 있습니다. 시스템 환경 변수에 Python을 추가하는 가이드는 Windows 환경 변수 업데이트를 참조하세요.

이제 환경 변수가 설정되었습니다. 다음으로 Model Optimizer를 구성합니다.

4단계: Model Optimizer 프로그램 구성

Model Optimizer는 Caffe*, TensorFlow*, Apache MXNet*, ONNX* 및 Kaldi*와 같은 인기 있는 딥 러닝 프레임워크에서 학습된 모델을 가져오기 위한 Python* 기반 명령 도구입니다.

Model Optimizer는 인텔 OpenVINO 툴킷의 핵심 구성요소입니다. 모델에서 추론을 수행하려면(ONNX 및 nGraph 모델 제외) Model Optimizer 프로그램을 통해 모델을 실행해야 합니다. Model Optimizer를 통해 pre-trained된 모델을 변환할 때 출력(결과 파일)은 네트워크의 IR(Intermediate Representation)입니다. IR은 전체 모델을 설명하는 두 개의 파일입니다..

  • .xml : 네트워크 토폴로지를 설명합니다.
  • .bin : weight 및 biases 의 바이너리 데이터입니다.

Model Optimizer에 대한 자세한 내용은 Model Optimizer 개발자 가이드를 참고하세요.

오류 메시지가 출력 되면 모든 종속 패키지들을 설치했는지 확인하세요. 이 단계에서는 명령 프롬프트를 사용하여 오류 메시지가 출력 되는지 확인합니다.

  1. Windows 검색 창에 cmd를 입력한 다음 Enter 키를 눌러 명령 프롬프트를 엽니다. 열린 창에 다음 명령을 입력합니다.

2. Model Optimizer 전제조건(prerequisites )디렉토리로 이동하세요.

cd C:\Program Files (x86)\Intel\openvino_2021\deployment_tools\model_optimizer\install_prerequisites

3. 아래 배치 파일을 실행하여 Caffe, TensorFlow 2.x, MXNet, Kaldi* 및 ONNX용 Model Optimizer를 설정하세요.

install_prerequisites.bat

선택 사항: 또는 각 프레임워크를 별도로 구성하도록 선택할 수 있습니다. 오류 메시지가 출력 되면 모든 종속 패키지들을 설치했는지 확인하세요. Model Optimizer 전제조건(prerequisites) 디렉토리에서 지원하려는 모델 프레임워크에 대한 스크립트를 실행하세요. 둘 이상의 스크립트를 실행할 수 있습니다.

노트

특정 프레임워크용 Model Optimizer 를 설치하도록 선택할 수 있습니다. 동일한 디렉토리에는 Caffe, TensorFlow 1.x, TensorFlow 2.x, MXNet, Kaldi* 및 ONNX에 대한 개별 스크립트(install_prerequisites_caffe.bat 등)가 있습니다.

Model Optimizer는 하나 이상의 프레임워크에 대해 설정됩니다.

이제 이 가이드의 모든 필수 설치, 구성 및 빌드 단계를 완료하여 CPU를 사용하여 학습된 모델로 작업할 수 있습니다.

GPU 또는 VPU를 사용하거나 Windows* 환경 변수를 업데이트하려면 선택적 단계 섹션을 읽으십시오.

또는 기본 OpenVINO™ 툴킷 워크플로를 배우고 코드 샘플 및 데모 애플리케이션을 실행하려면 툴킷 사용 시작 섹션으로 이동하여 더 자세한 내용 알아보세요.

5단계(선택 사항): non-CPU 장치에 대한 추론 구성:

선택 사항: 인텔® 프로세서 그래픽(GPU) 단계

노트

이 단계는 Intel® GPU 를 사용하려는 경우에만 필요합니다.

이 섹션은 드라이버 설치가 필요한지 확인하는 데 도움이 됩니다. 표시된 버전 이상을 설치하세요.

응용 프로그램이 계산을 인텔® 통합 그래픽으로 넘기려는 경우 하드웨어에 Windows용 인텔 그래픽 드라이버가 설치되어 있어야 합니다. 권장 버전을 다운로드하여 설치합니다.

드라이버가 설치되어 있는지 확인하려면:

  1. Windows 검색 창에서 장치 관리자를 입력하고 Enter 키를 누릅니다. 장치 관리자가 열립니다.
  2. 디스플레이 어댑터를 보려면 드롭다운 화살표를 클릭합니다. 컴퓨터에 설치된 어댑터를 볼 수 있습니다.

3. 어댑터 이름을 마우스 오른쪽 버튼으로 클릭하고 속성을 선택합니다.

4. 드라이버 탭을 클릭하여 드라이버 버전을 확인합니다.

장치 드라이버 업데이트를 완료하고 GPU를 사용할 준비가 되었습니다. 기본 OpenVINO™ 툴킷 워크플로를 배우고 코드 샘플 및 데모 애플리케이션을 실행하려면 툴킷 사용 시작 섹션으로 이동하여 진행하세오.

선택 사항: Intel® Movidius™ VPU를 사용한 Intel® Vision Accelerator 설계 단계

노트

이 단계는 Intel® Movidius™ VPU와 함께 Intel® Vision Accelerator Design을 사용하려는 경우에만 필요합니다.

Intel® Movidius™ VPU를 사용하는 Intel® Vision Accelerator Design에 대한 추론을 활성화하려면 다음 추가 설치 단계가 필요합니다.

  1. Visual Studio 2017용 Visual C++ 재배포 가능 패키지 다운로드 및 설치
  2. Intel® Movidius™ VPU 카드가 포함된 Intel® Vision Accelerator Design에 PCIe 슬롯에 대한 SMBUS 연결이 필요한 경우 지원 엔지니어에게 문의하세요(거의 없음). 확인된 경우에만 SMBUS 드라이버를 설치합니다(기본적으로 필요하지 않음). 
    1. <INSTALL_DIR>\deployment_tools\inference-engine\external\hddl\drivers\SMBusDriver 디렉토리로 이동합니다. 여기서 <INSTALL_DIR> 은  Intel 배포 OpenVINO 툴킷이 설치된 디렉토리입니다.
    2. hddlsmbus.inf 파일을 마우스 오른쪽 버튼으로 클릭하고 팝업 메뉴에서 설치(Install)를 선택합니다.

이제 장치 드라이버 설치가 완료되었으며 인텔® Movidius™ VPU와 함께 Intel® Vision Accelerator Design 을 사용할 준비가 되었습니다.

아래 사항도 확인해 주세요:

설정이 완료되면 툴킷 사용 시작 섹션으로 이동하여 기본 OpenVINO™ 툴킷 워크플로를 배우고 코드 샘플 및 데모 애플리케이션을 실행할 준비가 된 것입니다.

선택 사항: Windows 환경 변수 업데이트

이러한 단계는 Windows PATH 환경 변수에 응용 프로그램을 추가하기 위해 CMake* 또는 Python* 설치 중에 확인란을 선택하는 것을 잊은 경우와 같은 특별한 상황에서만 필요합니다.

실행하는 명령을 입력했을 때 응용 프로그램을 찾을 수 없다는 오류 메시지를 반환하는 경우 다음 단계를 사용하여 Windows PATH를 업데이트하세요.

1. Windows 검색 창에서 시스템 환경 변수 편집을 입력하고 Enter 키를 누릅니다. 다음과 같은 창이 나타납니다.

2. 화면 하단에서 환경 변수를 클릭합니다.

3. 시스템 변수에서 경로를 클릭한 다음 편집을 클릭합니다.

4. 열린 창에서 찾아보기(Browse)를 클릭합니다. 찾아보기 창이 열립니다.

5. CMake를 PATH에 추가해야 하는 경우 CMake를 설치한 디렉터리로 이동합니다. 기본 디렉터리는 C:\Program Files\CMake입니다.

6.PATH에 Python을 추가해야 하는 경우 Python을 설치한 디렉터리로 이동합니다. 기본 디렉터리는 C:\Users\<USER_ID>\AppData\Local\Programs\Python\Python36\Python입니다. AppData 폴더는 기본적으로 숨겨져 있습니다. 숨겨진 파일 및 폴더를 보려면 이 Windows 10 가이드를 참조하십시오.

7. OK 을 반복해서 클릭하여 각 화면을 닫습니다.

PATH 환경 변수가 업데이트되었습니다. 변경 사항이 즉시 적용되지 않으면 재부팅해야 할 수 있습니다.

6단계: 툴킷 사용 시작

이제 툴킷을 사용해 볼 준비가 되었습니다. 계속하려면 시작하기 가이드 섹션을 참조하여 기본 OpenVINO™ 툴킷 워크플로를 배우고 다양한 추론 장치에서 pre-trained 모델로 코드 샘플 및 데모 애플리케이션을 실행하세요.

OpenVINO™ 툴킷의 인텔® 배포 제거

툴킷을 제거하려면 제거 페이지의 각 단계들을 따르세요.

추가 리소스

샘플 및 데모 시작하기: 시작 가이드

OpenVINO™ 툴킷의 인텔® 배포 홈 페이지: https://software.intel.com/en-us/openvino-toolkit

OpenVINO™와 함께 사용할 모델 변환: Model Optimizer 개발자 가이드

자신만의 OpenVINO™ 애플리케이션 작성: 추론 엔진 개발자 가이드

샘플 애플리케이션에 대한 정보: 추론 엔진 샘플 개요

제공된 모델 세트에 대한 정보: OpenVINO™ 툴킷 pre-trainend 모델 개요

IoT 라이브러리 및 코드 샘플: 인텔® IoT 개발자 키트

특정 프레임워크에서 모델을 변환하는 방법에 대해 자세히 알아보려면 다음으로 이동하세요.

Caffe* 모델 변환

TensorFlow* 모델 변환

MXNet* 모델 변환

Kaldi* 모델 변환

ONNX* 모델 변환

Leave a Comment

Your email address will not be published.