Working Smarter by IoT & Digital Transformation

“Đathiết bị, một API” và Bộ công cụ OpenVINO

0 42

Thị gíac máy tính đang rầm rồ lan truyền ở khắp mọi nơi, và có nhiều máy tăng tốc điện toán để hỗ trợ. Giờ đây, đã có một bộ công cụ được tối ưu hóa từ Intel để mở rộng phần cứng với một API duy nhất và nó bao gồm một thư viện các chức năng, các hạt nhân được tối ưu hóa trước và các công cụ được tối ưu hóa cho OpenCV và OpenVX.

Intel gọi nó là bộ công cụ Tối ưu hóa mạng suy luận & tối ưu hóa mạng thần kinh (OpenVINO ™). Đây là nguồn mở và miễn phí.

Bản phát hành gần đây nhất thậm chí còn hỗ trợ Raspberry Pi làm máy chủ lưu trữ để sử dụng Intel® Neural Compute Stick 2 . Intel Neural Compute Stick 2 được cung cấp bởi VPU Intel ™ Movidius ™ X để mang lại hiệu suất đáng kinh ngạc với công suất rất thấp: 4 nghìn tỷ thao tác mỗi giây và cắm vào cổng USB để liên lạc và cấp nguồn.

Intel Movidius Neural Compute Stick

Bộ công cụ mới cung cấp chức năng chính để giúp phát triển các ứng dụng mô phỏng thị giác của con người, giúp chúng hoạt động nhanh bằng cách cung cấp hỗ trợ tối ưu trên các máy gia tốc thị giác máy tính (CPU, GPU, Intel Movidius Neute Compute Stick và FPGA) và giúp chúng dễ dàng khai thác điện toán không đồng nhất bằng cách cung cấp một API phổ biến.

Bộ công cụ OpenVINO

Bộ công cụ OpenVINO cung cấp cho chúng ta một bộ công cụ duy nhất cho các ứng dụng muốn có khả năng nhìn giống con người. Nó thực hiện điều này bằng cách hỗ trợ học tập sâu, thị giác máy tính và tăng tốc phần cứng với sự hỗ trợ không đồng nhất.

Khi Intel đổi tên SDK máy tính của mình thành bộ công cụ OpenVINO vào năm ngoái, nó đã bổ sung rất nhiều hỗ trợ mới và các thói quen tối ưu hóa. Bao gồm trong bộ công cụ là ba API mới: Bộ công cụ triển khai Deep Learning, bộ công cụ suy luận học sâu phổ biến và các chức năng được tối ưu hóa cho OpenCV và OpenVX (có hỗ trợ cho các khung ONNX, TensorFlow, MXNet và Caffe).

Bộ công cụ này nhằm vào các nhà data science và nhà phát triển phần mềm làm việc về thị giác máy tính, suy luận mạng thần kinh và triển khai học tập sâu, những người muốn tăng tốc các giải pháp của họ trên nhiều nền tảng. Điều này sẽ giúp các nhà phát triển đưa trí thông minh tầm nhìn vào các ứng dụng của họ từ cạnh này sang đám mây khác, theo Intel.

Ma thuật trong Trình tối ưu hóa mô hình

Bộ công cụ triển khai Deep Learning Deployment bao gồm một tính năng được gọi là Trình tối ưu hóa mô hình của người dùng. Đây là chìa khóa để Intel hỗ trợ một API API với hiệu năng cao.

Trình tối ưu hóa mô hình nhập các mô hình được đào tạo từ các khung khác nhau (Caffe, Tensorflow, MxNet, ONNX, Kaldi) và chuyển đổi chúng thành tệp đại diện trung gian thống nhất. Nó cũng tối ưu hóa các cấu trúc liên kết thông qua việc hợp nhất nút, hợp nhất ngang, loại bỏ chuẩn hóa hàng loạt và lượng tử hóa. 

Nó cũng hỗ trợ đóng băng biểu đồ và tóm tắt biểu đồ cùng với đóng băng đầu vào động. Tăng hiệu suất đáng kể xảy ra do Trình tối ưu hóa mô hình sẽ sử dụng các loại dữ liệu phù hợp nhất với phần cứng đích (ví dụ: chuyển đổi FP32 sang FP16).

Có một loại ấn tượng với hơn hai chục mẫu, bao gồm phân loại hình ảnh tiêu chuẩn và đường ống, phân đoạn hình ảnh, phát hiện đối tượng, phát hiện đối tượng cho Máy dò đa hộp đơn (SSD), chuyển kiểu thần kinh, rào cản bảo mật, phát hiện khuôn mặt tương tác, đếm người, và nhận diện khuôn mặt đa kênh.

Đăng ký để nhận ebook
Đăng ký để nhận ebook "Những điều cơ bản cần biết về Smart Factory và công nghệ IoT" từ chúng tôi.
Đăng ký để được nhận ebook "Những điều cơ bản cần biết về Smart Factory và công nghệ IoT".

Để lại bình luận

Địa chỉ email của bạn sẽ không được công bố.