مجموعة أدوات تحليلات الذكاء الاصطناعي من إنتل لنظام التشغيل Linux

معلومات المنتج
مجموعة أدوات الذكاء الاصطناعي هي مجموعة أدوات تتضمن بيئات كوندا متعددة للتعلم الآلي ومشاريع التعلم العميق. يتضمن بيئات لـ TensorFlow و PyTorch و Intel oneCCL Bindings. يسمح للمستخدمين بتكوين نظامهم عن طريق تعيين متغيرات البيئة ، واستخدام Conda لإضافة حزم ، وتثبيت برامج تشغيل الرسومات ، وتعطيل Hangcheck. يمكن استخدام مجموعة الأدوات في واجهة سطر الأوامر (CLI) ويمكن دمجها بسهولة في المشاريع الحالية دون أي تعديلات خاصة.
استخدام المنتج
- قم بتكوين النظام الخاص بك عن طريق تعيين متغيرات البيئة قبل المتابعة.
- للعمل في واجهة سطر الأوامر (CLI) ، استخدم البرنامج النصي setvars.sh لتكوين الأدوات في مجموعة أدوات oneAPI عبر متغيرات البيئة. يمكنك الحصول على مصدر البرنامج النصي setvars.sh مرة واحدة لكل جلسة أو في كل مرة تفتح فيها نافذة طرفية جديدة. يمكن العثور على البرنامج النصي setvars.sh في المجلد الجذر لتثبيت oneAPI الخاص بك.
- قم بتنشيط بيئات conda المختلفة حسب الحاجة من خلال الأمر "conda activ." ". تتضمن مجموعة أدوات الذكاء الاصطناعي بيئات كوندا لـ TensorFlow (CPU) و TensorFlow مع امتداد Intel لـ Sample TensorFlow (GPU) و PyTorch مع امتداد Intel لـ PyTorch (XPU) و Intel oneCCL Bindings for PyTorch (CPU).
- استكشف الشروع في العمل S ذات الصلة بكل بيئةample مرتبط في الجدول الوارد في دليل المستخدم لمزيد من المعلومات حول كيفية استخدام كل بيئة.
تفترض الإرشادات التالية أنك قمت بتثبيت برنامج Intel® oneAPI. يرجى الاطلاع على صفحة Intel AI Analytics Toolkit للحصول على خيارات التثبيت. اتبع هذه الخطوات لإنشاء وتشغيل ملفاتampمع مجموعة أدوات تحليلات Intel® AI (مجموعة AI):
- تكوين النظام الخاص بك.
- بناء وتشغيل S.ampليه.
ملحوظة: تتوافق عمليات تثبيت Python القياسية تمامًا مع AI Kit ، ولكن يفضل توزيع Intel® لـ Python *.
لا يلزم إجراء تعديلات خاصة على مشاريعك الحالية لبدء استخدامها مع مجموعة الأدوات هذه.
مكونات مجموعة الأدوات هذه
تتضمن مجموعة أدوات الذكاء الاصطناعي
- تحسين Intel® لـ PyTorch *: تم تضمين مكتبة الشبكة العصبية العميقة Intel® oneAPI (oneDNN) في PyTorch كمكتبة نواة الرياضيات الافتراضية للتعلم العميق.
- امتداد Intel® لـ PyTorch: يعمل امتداد Intel® لـ PyTorch * على توسيع قدرات PyTorch * بميزات محدثة وتحسينات لزيادة أداء أجهزة Intel.
- تحسين Intel® لـ TensorFlow *: يدمج هذا الإصدار العناصر الأولية من oneDNN في وقت تشغيل TensorFlow للحصول على أداء أسرع.
- امتداد Intel® لـ TensorFlow: امتداد Intel® لـ TensorFlow * هو ملحق ملحق تعلم عميق غير متجانس وعالي الأداء يعتمد على واجهة TensorFlow PluggableDevice. يجلب ملحق الامتداد هذا أجهزة Intel XPU (GPU ، CPU ، إلخ) إلى مجتمع TensorFlow مفتوح المصدر لتسريع أعباء العمل بالذكاء الاصطناعي.
- توزيع Intel® لـ Python *: احصل على أداء أسرع لتطبيق Python فور إخراجها من عبوتها ، مع الحد الأدنى من التغييرات أو عدم إجراء أي تغييرات على التعليمات البرمجية الخاصة بك. تم دمج هذا التوزيع مع مكتبات أداء Intel® مثل مكتبة Intel® oneAPI Math Kernel ومكتبة تحليلات البيانات Intel®oneAPI.
- Intel® Distribution of Modin * (متاح من خلال Anaconda فقط) ، والذي يمكّنك من توسيع نطاق المعالجة المسبقة بسلاسة عبر عقد متعددة باستخدام مكتبة إطار البيانات الذكية والموزعة هذه مع واجهة برمجة تطبيقات مماثلة للباندا. هذا التوزيع متاح فقط من خلال تثبيت مجموعة أدوات تحليلات Intel® AI مع Conda * Package Manager.
- Intel® Neural Compressor: نشر حلول الاستدلال منخفضة الدقة بسرعة على أطر التعلم العميق الشائعة مثل TensorFlow * و PyTorch * و MXNet * و ONNX * (Open Neural Network Exchange) وقت التشغيل.
- امتداد Intel® لـ Scikit-Learn *: طريقة سلسة لتسريع تطبيق Scikit-Learn الخاص بك باستخدام مكتبة تحليلات البيانات Intel® oneAPI (oneDAL).
يجعل تصحيح scikit-Learn منه إطار عمل للتعلم الآلي مناسبًا للتعامل مع مشاكل الحياة الواقعية. - XGBoost Optimized بواسطة Intel: تتضمن حزمة التعلم الآلي المعروفة هذه لأشجار القرار المعززة بالتدرج تسريعًا سلسًا وبسيطًا لبنيات Intel® لتسريع تدريب النموذج بشكل كبير وتحسين الدقة للحصول على تنبؤات أفضل.
تكوين النظام الخاص بك - مجموعة أدوات تحليلات Intel® AI
إذا لم تكن قد قمت بالفعل بتثبيت مجموعة أدوات تحليلات الذكاء الاصطناعي ، فارجع إلى تثبيت مجموعة أدوات تحليلات Intel® AI. لتكوين النظام الخاص بك ، قم بتعيين متغيرات البيئة قبل المتابعة.
تعيين متغيرات البيئة لتطوير CLI
للعمل في واجهة سطر الأوامر (CLI) ، يتم تكوين الأدوات الموجودة في مجموعات أدوات oneAPI عبر
متغيرات البيئة. لتعيين متغيرات البيئة عن طريق الاستعانة بمصادر خارجية للبرنامج النصي setvars:
الخيار 1: المصدر setvars.sh مرة واحدة لكل جلسة
المصدر setvars.sh في كل مرة تفتح فيها نافذة طرفية جديدة:
يمكنك العثور على البرنامج النصي setvars.sh في المجلد الجذر لتثبيت oneAPI الخاص بك ، والذي يكون عادةً / opt / intel / oneapi / لعمليات التثبيت على مستوى النظام و ~ / intel / oneapi / للتثبيتات الخاصة.
لعمليات التثبيت على مستوى النظام (تتطلب امتيازات الجذر أو sudo):
- . /opt/intel/oneapi/setvars.sh
للتركيبات الخاصة:
- . ~ / إنتل / oneapi / setvars.sh
الخيار 2: الإعداد مرة واحدة لـ setvars.sh
لإعداد البيئة تلقائيًا لمشاريعك ، قم بتضمين مصدر الأمر
/setvars.sh في برنامج نصي لبدء التشغيل حيث سيتم استدعاؤه تلقائيًا (استبدل
مع المسار إلى موقع تثبيت oneAPI الخاص بك). مواقع التثبيت الافتراضية هي / opt /
intel / oneapi / للتثبيتات على مستوى النظام (يتطلب امتيازات الجذر أو sudo) و ~ / intel / oneapi / للتثبيتات الخاصة.
على سبيل المثالampلو ، يمكنك إضافة المصدر /setvars.sh إلى ~ / .bashrc أو ~ / .bashrc_profile أو ~ / .profile file. لجعل الإعدادات دائمة لجميع الحسابات على نظامك ، قم بإنشاء نص برمجي .sh من سطر واحد في نظامك / etc / profile.d الذي يُصدر setvars.sh (لمزيد من التفاصيل ، راجع توثيق Ubuntu حول متغيرات البيئة).
ملحوظة
يمكن إدارة البرنامج النصي setvars.sh باستخدام التكوين file، وهو أمر مفيد بشكل خاص إذا كنت بحاجة إلى تهيئة إصدارات معينة من المكتبات أو المترجم ، بدلاً من التعيين الافتراضي إلى الإصدار "الأحدث". لمزيد من التفاصيل ، راجع استخدام التكوين File لإدارة Setvars.sh .. إذا كنت بحاجة إلى إعداد البيئة في غلاف غير POSIX ، فراجع إعداد بيئة تطوير API واحد للحصول على مزيد من خيارات التكوين.
الخطوات التالية
- إذا كنت لا تستخدم Conda ، أو تقوم بالتطوير لوحدة معالجة الرسومات ، فقم ببناء وتشغيل S.ampلو المشروع.
- لمستخدمي Conda ، تابع إلى القسم التالي.
- للتطوير على وحدة معالجة الرسومات ، تابع إلى مستخدمي GPU
بيئات كوندا في مجموعة الأدوات هذه
هناك العديد من بيئات Conda المضمنة في AI Kit. يتم وصف كل بيئة في الجدول أدناه. بمجرد تعيين متغيرات البيئة لبيئة CLI كما هو موضح سابقًا ، يمكنك بعد ذلك تنشيط بيئات conda مختلفة حسب الحاجة عبر الأمر التالي:
- تفعيل كوندا
لمزيد من المعلومات ، يرجى استكشاف الخطوات الأولى المتعلقة بكل بيئةample مرتبط في الجدول أدناه.

استخدم وظيفة Conda Clone لإضافة الحزم كمستخدم غير جذر
يتم تثبيت مجموعة أدوات Intel AI Analytics في مجلد oneapi ، والذي يتطلب امتيازات الجذر لإدارته. قد ترغب في إضافة حزم جديدة والحفاظ عليها باستخدام Conda * ، ولكن لا يمكنك فعل ذلك بدون الوصول إلى الجذر. أو ، قد يكون لديك حق الوصول إلى الجذر ولكن لا تريد إدخال كلمة مرور الجذر في كل مرة تقوم فيها بتنشيط Conda.
لإدارة بيئتك دون استخدام الوصول إلى الجذر ، استخدم وظيفة Conda clone لاستنساخ الحزم التي تحتاجها إلى مجلد خارج المجلد / opt / intel / oneapi /:
- من نفس النافذة الطرفية حيث قمت بتشغيل setvars.sh ، حدد بيئات Conda على نظامك:
- قائمة كوندا إنف
سترى نتائج مشابهة لهذا:
- قائمة كوندا إنف
- استخدم وظيفة النسخ لاستنساخ البيئة إلى مجلد جديد. في السابقample أدناه ، تم تسمية البيئة الجديدة usr_intelpython وتم تسمية البيئة التي يتم استنساخها باسم base (كما هو موضح في الصورة أعلاه).
- كوندا إنشاء - اسم usr_intelpython - استنساخ قاعدة
ستظهر تفاصيل الاستنساخ:
- كوندا إنشاء - اسم usr_intelpython - استنساخ قاعدة

- تفعيل البيئة الجديدة لتمكين القدرة على إضافة الحزم. كوندا تفعيل usr_intelpython
- تحقق من أن البيئة الجديدة نشطة. قائمة كوندا إنف
يمكنك الآن التطوير باستخدام بيئة Conda لتوزيع Intel لـ Python. - لتنشيط بيئة TensorFlow * أو PyTorch *:
تينسور فلو
- كوندا تفعيل تدفق التوتر
باي تورش
- كوندا تنشيط pytorch
الخطوات التالية
- إذا لم تكن تعمل على تطوير وحدة معالجة الرسومات ، فقم ببناء وتشغيل S.ampلو المشروع.
- للتطوير على وحدة معالجة الرسومات ، تابع إلى مستخدمي GPU.
مستخدمو GPU
بالنسبة لأولئك الذين يطورون باستخدام وحدة معالجة الرسومات ، اتبع الخطوات التالية:
تثبيت برامج تشغيل GPU
إذا اتبعت الإرشادات الواردة في دليل التثبيت لتثبيت برامج تشغيل GPU ، فيمكنك تخطي هذه الخطوة. إذا لم تقم بتثبيت برامج التشغيل ، فاتبع الإرشادات الموجودة في دليل التثبيت.
إضافة المستخدم إلى مجموعة الفيديو
بالنسبة لأحمال عمل حساب GPU ، لا يمتلك المستخدمون غير الجذر (العاديون) حق الوصول إلى جهاز GPU. تأكد من إضافة المستخدم (المستخدمين) العادي إلى مجموعة الفيديو ؛ خلاف ذلك ، ستفشل الثنائيات التي تم تجميعها لجهاز GPU عند تنفيذها بواسطة مستخدم عادي. لإصلاح هذه المشكلة ، أضف المستخدم غير الجذر إلى مجموعة الفيديو:
- sudo usermod -a -G video
تعطيل Hangcheck
بالنسبة للتطبيقات التي تحتوي على أحمال عمل GPU طويلة التشغيل في البيئات الأصلية ، قم بتعطيل Hangcheck. لا يُنصح بذلك في المحاكاة الافتراضية أو الاستخدامات القياسية الأخرى لوحدة معالجة الرسومات ، مثل الألعاب.
يعد حمل العمل الذي يستغرق أكثر من أربع ثوانٍ لتنفيذه أجهزة وحدة معالجة الرسومات عبء عمل طويل المدى. بشكل افتراضي ، تعتبر مؤشرات الترابط الفردية التي تتأهل كأحمال عمل طويلة المدى معلقة ويتم إنهاؤها. من خلال تعطيل فترة مهلة hangcheck ، يمكنك تجنب هذه المشكلة.
ملحوظة: إذا تم تحديث kernel ، يتم تمكين hangcheck تلقائيًا. قم بتشغيل الإجراء أدناه بعد كل تحديث لـ kernel للتأكد من تعطيل التحقق من تعليق المكالمة.
- افتح المحطة الطرفية.
- افتح اليرقة file في / etc / default.
- في اليرقة file، ابحث عن السطر GRUB_CMDLINE_LINUX_DEFAULT = ””.
- أدخل هذا النص بين علامتي الاقتباس (""):
- قم بتشغيل هذا الأمر:
sudo update-grub - أعد تشغيل النظام. يظل Hangcheck معطلاً.
الخطوة التالية
الآن بعد أن قمت بتكوين النظام الخاص بك ، انتقل إلى إنشاء وتشغيل S.ampلو المشروع.
بناء وتشغيل S.ample باستخدام سطر الأوامر
مجموعة أدوات تحليلات Intel® AI
في هذا القسم ، ستقوم بتشغيل مشروع "Hello World" بسيط للتعرف على عملية بناء المشاريع ، ثم بناء مشروعك الخاص.
ملحوظة: إذا لم تكن قد قمت بالفعل بتكوين بيئة التطوير الخاصة بك ، فانتقل إلى تكوين النظام ثم ارجع إلى هذه الصفحة. إذا كنت قد أكملت بالفعل خطوات تكوين نظامك ، فتابع مع الخطوات أدناه.
يمكنك استخدام إما نافذة طرفية أو Visual Studio Code * عند العمل من سطر الأوامر. للحصول على تفاصيل حول كيفية استخدام VS Code محليًا ، راجع الاستخدام الأساسي لـ Visual Studio Code مع oneAPI على Linux *. لاستخدام رمز VS عن بُعد ، راجع تطوير رمز الاستوديو المرئي عن بُعد باستخدام oneAPI على نظام Linux *.
بناء وتشغيل S.ampلو المشروع
لياليampيجب استنساخ les أدناه إلى نظامك قبل أن تتمكن من إنشاء ملفات sampمشروع لو:

لمشاهدة قائمة بالمكونات التي تدعم CMake ، راجع استخدام CMake مع تطبيقات API واحدة.
بناء مشروعك الخاص
لا يلزم إجراء تعديلات خاصة على مشاريع Python الحالية لبدء استخدامها مع مجموعة الأدوات هذه. بالنسبة للمشروعات الجديدة ، تتبع العملية عن كثب العملية المستخدمة لإنشاء ملفاتampلو Hello World. الرجوع إلى Hello World README fileق للحصول على التعليمات.
تحسين الأداء
يمكنك الحصول على وثائق لمساعدتك على زيادة أداء TensorFlow أو PyTorch.
تكوين بيئتك
ملحوظة: إذا لم تكن بيئتك الافتراضية متاحة ، أو إذا كنت ترغب في إضافة حزم إلى بيئتك الافتراضية ، فتأكد من إكمال الخطوات الواردة في استخدام وظيفة Conda Clone لإضافة حزم كمستخدم غير جذر.
إذا كنت تقوم بالتطوير خارج حاوية ، فقم بتزويد البرنامج النصي التالي باستخدام Intel® Distribution for Python *:
-
- /setvars.sh
- أين هو المكان الذي قمت فيه بتثبيت مجموعة الأدوات هذه. بشكل افتراضي ، يكون دليل التثبيت هو:
- عمليات تثبيت الجذر أو sudo: / opt / intel / oneapi
- عمليات تثبيت المستخدم المحلي: ~ / intel / oneapi
ملحوظة: يمكن إدارة البرنامج النصي setvars.sh باستخدام التكوين file، وهو أمر مفيد بشكل خاص إذا كنت بحاجة إلى تهيئة إصدارات معينة من المكتبات أو المترجم ، بدلاً من التعيين الافتراضي إلى الإصدار "الأحدث". لمزيد من التفاصيل ، راجع استخدام التكوين File لإدارة Setvars.sh. إذا كنت بحاجة إلى إعداد البيئة في shell غير POSIX ، فراجع إعداد بيئة تطوير API واحد لمزيد من خيارات التكوين.
لتبديل البيئات ، يجب عليك أولاً إلغاء تنشيط البيئة النشطة.
المثال التاليampيوضح le تكوين البيئة ، وتنشيط TensorFlow * ، ثم العودة إلى توزيع Intel لـ Python:
تنزيل حاوية
مجموعة أدوات تحليلات Intel® AI
تسمح لك الحاويات بإعداد وتهيئة البيئات لإنشاء تطبيقات oneAPI وتشغيلها وتوصيفها وتوزيعها باستخدام الصور:
- يمكنك تثبيت صورة تحتوي على بيئة مكونة مسبقًا بجميع الأدوات التي تحتاجها ، ثم التطوير ضمن تلك البيئة.
- يمكنك حفظ بيئة واستخدام الصورة لنقل تلك البيئة إلى جهاز آخر بدون إعداد إضافي.
- يمكنك تجهيز الحاويات بمجموعات مختلفة من اللغات وأوقات التشغيل أو أدوات التحليل أو غيرها من الأدوات ، حسب الحاجة.
تنزيل Docker * Image
يمكنك تنزيل صورة Docker * من مستودع الحاويات.
ملحوظة: يبلغ حجم صورة Docker حوالي 5 جيجابايت ويمكن أن يستغرق تنزيلها حوالي 15 دقيقة. سيتطلب 25 جيجا بايت من مساحة القرص.
- حدد الصورة:
image = intel / oneapi-aikit docker pull “$ image” - اسحب الصورة.
عامل ميناء سحب "صورة $"
بمجرد تنزيل صورتك ، انتقل إلى استخدام الحاويات مع سطر الأوامر.
استخدام الحاويات مع سطر الأوامر
مجموعة أدوات Intel® AI Analytics قم بتنزيل الحاويات الجاهزة مباشرةً. سيتركك الأمر أدناه لوحدة المعالجة المركزية في موجه الأوامر ، داخل الحاوية ، في الوضع التفاعلي.
وحدة المعالجة المركزية
image = intel / oneapi-aikit docker run -it “$ image”
استخدام Intel® Advisor أو Intel® Inspector أو VTune ™ مع الحاويات
عند استخدام هذه الأدوات ، يجب توفير إمكانيات إضافية للحاوية: –cap-add = SYS_ADMIN –cap-add = SYS_PTRACE
- تشغيل عامل الإرساء –cap-add = SYS_ADMIN –cap-add = SYS_PTRACE \ –device = / dev / dra -it “$ image”
استخدام أنظمة Cloud CI
تتيح لك أنظمة Cloud CI إنشاء برامجك واختبارها تلقائيًا. انظر الريبو في جيثب على سبيل المثالampليه من التكوين fileالتي تستخدم واجهة برمجة تطبيقات واحدة لأنظمة السحابة CI الشائعة.
استكشاف الأخطاء وإصلاحها لمجموعة أدوات Intel® AI Analytics

الإخطارات وإخلاء المسؤولية
قد تتطلب تقنيات Intel تنشيط الأجهزة أو البرامج أو الخدمة الممكّنة. لا يمكن أن يكون أي منتج أو مكون آمنًا تمامًا.
قد تختلف التكاليف والنتائج الخاصة بك.
© شركة إنتل. تعد Intel وشعار Intel وعلامات Intel الأخرى علامات تجارية لشركة Intel Corporation أو الشركات التابعة لها. قد تكون الأسماء والعلامات التجارية الأخرى مملوكة لآخرين.
معلومات المنتج والأداء
يختلف الأداء حسب الاستخدام والتكوين وعوامل أخرى. تعلم اكثر من خلال www.Intel.com/PerformanceIndex.
مراجعة الإخطار رقم 20201201
لا يمنح هذا المستند أي ترخيص (صريحًا أو ضمنيًا ، عن طريق الإغلاق أو غير ذلك) لأي حقوق ملكية فكرية. قد تحتوي المنتجات الموصوفة على عيوب أو أخطاء في التصميم تُعرف بالأخطاء التي قد تؤدي إلى انحراف المنتج عن المواصفات المنشورة. الأخطاء المميزة الحالية متوفرة عند الطلب.
تتنصل Intel من جميع الضمانات الصريحة والضمنية ، بما في ذلك على سبيل المثال لا الحصر ، الضمانات الضمنية الخاصة بالتسويق ، والملاءمة لغرض معين ، وعدم الانتهاك ، بالإضافة إلى أي ضمان ينشأ عن مسار الأداء ، أو مسار التعامل ، أو الاستخدام في التجارة.
المستندات / الموارد
![]() |
مجموعة أدوات تحليلات الذكاء الاصطناعي من إنتل لنظام التشغيل Linux [بي دي اف] دليل المستخدم مجموعة أدوات تحليلات الذكاء الاصطناعي لنظام التشغيل Linux ، ومجموعة أدوات تحليلات الذكاء الاصطناعي ، ومجموعة أدوات التحليلات لنظام التشغيل Linux ، ومجموعة أدوات التحليلات ، ومجموعة الأدوات |





