تجذب تنسيقات الخدمة المرنة ، التي كانت موجودة منذ سنوات ، اهتمامًا جديدًا ، حيث يسعى مشغلو المطاعم إلى توفير المزيد من الراحة لضيوفهم.

على الرغم من أن عارضة الأزياء السريعة ، مع نموذج الطلب المضاد ، قد حظيت بمعظم الاهتمام في العقد الماضي ، فقد وجدت مفاهيم مثل Russo's New York Pizzeria و Mama Fu's Asian و Wolfgang Puck Bistro أن النموذج "المرن غير الرسمي" يعمل بشكل جيد مع زبائنهم.

يقدم الطراز المرن غير الرسمي خدمة العداد بالنهار وخدمة كاملة بالليل. تتكيف المفاهيم الأحدث ، مثل SC Asian التابعة لمجموعة Flat Out Crazy Restaurant Group في متجر Macy’s في سان فرانسيسكو ، مع القليل من المرونة غير الرسمية أيضًا.

ظهر Wolfgang Puck Bistro في Universal CityWalk في لوس أنجلوس لأول مرة بتنسيق غير رسمي في أبريل 2009.

قالت أليسا: "يوفر هذا الإعداد وجبة غداء سريعة لعشاء العمل الذي ليس لديه وقت للانتظار ، وفي نفس الوقت يتيح موقعًا أكثر رسمية ووجهة لتناول العشاء الذين يرغبون في الحضور لتناول عشاء لطيف أو مناسبة خاصة". جيوسيا روبرتس ، منسق العمليات لشركة Wolfgang Puck Worldwide Inc.

أضاف راندي مورفي ، الذي استحوذت مجموعة مطاعم Murphy في أوستن ، تكساس ، على مفهوم Mama Fu في مارس 2008 ، أن النموذج المرن غير الرسمي مناسب لمطعمه. بصفته صاحب امتياز لشركة Mama Fu قبل الاستحواذ ، قال إنه لن يشعر بالراحة أبدًا مع الاعتماد في الغالب على الغداء لتحقيق الإيرادات.

لذلك بدأ مطعم أوستن ماما فو في تقديم خدمة العداد أثناء النهار وخدمة كاملة في الليل. التحول من عارضة سريعة بين الساعة 4 مساءً. و 5 مساءً. قال مورفي إنه سلس إلى حد ما ، طالما أن لديك مضيفًا أو خادمًا يراقب المقدمة لجذب العملاء فور وصولهم.

أضاف مورفي أن الشكل المرن غير الرسمي قد حول أيضًا المزيد من الدولارات إلى فترة العشاء.


الشكل المرن غير الرسمي يكتسب شعبية - الوصفات

مكتبات لتطبيق وصفات التوزيع على الشبكات العصبية ببضعة أسطر من التعليمات البرمجية ، مما يتيح نماذج أسرع وأصغر

SparseML عبارة عن مجموعة أدوات تتضمن واجهات برمجة التطبيقات (API) و CLIs والنصوص والمكتبات التي تطبق أحدث خوارزميات التشتيت مثل التقليم والتكميم على أي شبكة عصبية. تمكّن المناهج العامة القائمة على الوصفات والمبنية حول هذه الخوارزميات من تبسيط إنشاء نماذج أسرع وأصغر لمجتمع أداء ML بشكل عام.

يحتوي مستودع GitHub على عمليات تكامل داخل الأنظمة البيئية PyTorch و Keras و TensorFlow V1 ، مما يسمح بتوزيع النماذج بشكل سلس.

نقل التعلم من النماذج المتفرقة

تم اختبار هذا المستودع على أنظمة Python 3.6+ و Linux / Debian. يوصى بالتثبيت في بيئة افتراضية للحفاظ على النظام الخاص بك بالترتيب. أطر عمل ML المدعومة حاليًا هي التالية: torch & gt = 1.1.0 ، & lt = 1.8.0 ، tensorflow & gt = 1.8.0 ، & lt = 2.0.0 ، tensorflow.keras & gt = 2.2.0.

يمكن العثور على مزيد من المعلومات حول التثبيت مثل التبعيات والمتطلبات الاختيارية هنا.

لتمكين المرونة وسهولة الاستخدام والتكرار ، يتم توزيع النموذج باستخدام الوصفة. ترميز الوصفات التعليمات اللازمة لتعديل النموذج و / أو عملية التدريب كقائمة من المعدلات. يمكن أن تكون المعدلات النموذجية أي شيء من ضبط معدل التعلم للمحسن إلى التقليم التدريجي للحجم. تتم كتابة الملفات في YAML وتخزينها في ملفات YAML أو markdown باستخدام مادة YAML الأمامية. يتم ترميز باقي نظام SparseML لتحليل الوصفات إلى تنسيق أصلي للإطار المطلوب وتطبيق التعديلات على النموذج وخط أنابيب التدريب.

يمكن إنشاء فئات ScheduledModifierManager من الوصفات الموجودة في جميع أطر ML المدعومة. تتعامل فئات المدير مع تجاوز الرسوم البيانية للتدريب لتطبيق المعدلات كما هو موضح في الوصفة المرغوبة. يمكن للمديرين تطبيق الوصفات في لقطة واحدة أو التدريب بطرق واعية. يتم استدعاء لقطة واحدة من خلال استدعاء .apply (.) على المدير بينما يتطلب التدريب إدراكًا أن المكالمات في التهيئة (.) (اختياري) ، والتعديل (.) ، والإنهاء (.).

بالنسبة للأطر ، هذا يعني أنه يجب إضافة بضعة أسطر فقط من التعليمات البرمجية لبدء دعم التقليم والتكميم والتعديلات الأخرى على معظم خطوط أنابيب التدريب. على سبيل المثال ، يطبق ما يلي وصفة بأسلوب تدريبي مدرك:

بدلاً من التدريب المدرك ، يوضح المثال التالي كيفية تنفيذ وصفة بطريقة لقطة واحدة:

يمكن العثور على مزيد من المعلومات حول قاعدة التعليمات البرمجية والعمليات المضمنة في مستندات SparseML:


الشكل المرن غير الرسمي يكتسب شعبية - الوصفات

مكتبات لتطبيق وصفات التوزيع على الشبكات العصبية ببضعة أسطر من التعليمات البرمجية ، مما يتيح نماذج أسرع وأصغر

SparseML عبارة عن مجموعة أدوات تتضمن واجهات برمجة التطبيقات (API) و CLIs والنصوص والمكتبات التي تطبق أحدث خوارزميات التشتيت مثل التقليم والتكميم على أي شبكة عصبية. تمكّن المناهج العامة القائمة على الوصفات والمبنية حول هذه الخوارزميات من تبسيط إنشاء نماذج أسرع وأصغر لمجتمع أداء ML بشكل عام.

يحتوي مستودع GitHub على عمليات تكامل داخل الأنظمة البيئية PyTorch و Keras و TensorFlow V1 ، مما يسمح بتوزيع النماذج بشكل سلس.

نقل التعلم من النماذج المتفرقة

تم اختبار هذا المستودع على أنظمة Python 3.6+ و Linux / Debian. يوصى بالتثبيت في بيئة افتراضية للحفاظ على النظام الخاص بك بالترتيب. أطر عمل ML المدعومة حاليًا هي التالية: torch & gt = 1.1.0 ، & lt = 1.8.0 ، tensorflow & gt = 1.8.0 ، & lt = 2.0.0 ، tensorflow.keras & gt = 2.2.0.

يمكن العثور على مزيد من المعلومات حول التثبيت مثل التبعيات والمتطلبات الاختيارية هنا.

لتمكين المرونة وسهولة الاستخدام والتكرار ، يتم توزيع النموذج باستخدام الوصفة. تقوم الوصفات بترميز التعليمات اللازمة لتعديل النموذج و / أو عملية التدريب كقائمة من المعدلات. يمكن أن تكون المعدلات النموذجية أي شيء من ضبط معدل التعلم للمحسن إلى التقليم التدريجي الحجم. تتم كتابة الملفات في YAML وتخزينها في ملفات YAML أو markdown باستخدام مادة YAML الأمامية. يتم ترميز باقي نظام SparseML لتحليل الوصفات إلى تنسيق أصلي للإطار المطلوب وتطبيق التعديلات على النموذج وخط أنابيب التدريب.

يمكن إنشاء فئات ScheduledModifierManager من الوصفات الموجودة في جميع أطر عمل ML المدعومة. تتعامل فئات المدير مع تجاوز الرسوم البيانية للتدريب لتطبيق المعدلات كما هو موضح في الوصفة المرغوبة. يمكن للمديرين تطبيق الوصفات في لقطة واحدة أو التدريب بطرق واعية. يتم استدعاء لقطة واحدة من خلال استدعاء .apply (.) على المدير بينما يتطلب التدريب إدراكًا أن المكالمات في التهيئة (.) (اختياري) ، والتعديل (.) ، والإنهاء (.).

بالنسبة للأطر ، هذا يعني أنه يجب إضافة بضعة أسطر فقط من التعليمات البرمجية لبدء دعم التقليم والتكميم والتعديلات الأخرى على معظم خطوط أنابيب التدريب. على سبيل المثال ، يطبق ما يلي وصفة بأسلوب تدريبي مدرك:

بدلاً من التدريب المدرك ، يوضح المثال التالي كيفية تنفيذ وصفة بطريقة لقطة واحدة:

يمكن العثور على مزيد من المعلومات حول قاعدة التعليمات البرمجية والعمليات المضمنة في مستندات SparseML:


الشكل المرن غير الرسمي يكتسب شعبية - الوصفات

مكتبات لتطبيق وصفات التوزيع على الشبكات العصبية ببضعة أسطر من التعليمات البرمجية ، مما يتيح نماذج أسرع وأصغر

SparseML عبارة عن مجموعة أدوات تتضمن واجهات برمجة التطبيقات (API) و CLIs والنصوص والمكتبات التي تطبق أحدث خوارزميات التشتيت مثل التقليم والتكميم على أي شبكة عصبية. تمكّن المناهج العامة القائمة على الوصفات والمبنية حول هذه الخوارزميات من تبسيط إنشاء نماذج أسرع وأصغر لمجتمع أداء ML بشكل عام.

يحتوي مستودع GitHub على عمليات تكامل داخل الأنظمة البيئية PyTorch و Keras و TensorFlow V1 ، مما يسمح بتوزيع النماذج بشكل سلس.

نقل التعلم من النماذج المتفرقة

تم اختبار هذا المستودع على أنظمة Python 3.6+ و Linux / Debian. يوصى بالتثبيت في بيئة افتراضية للحفاظ على النظام الخاص بك بالترتيب. أطر عمل ML المدعومة حاليًا هي التالية: torch & gt = 1.1.0 ، & lt = 1.8.0 ، tensorflow & gt = 1.8.0 ، & lt = 2.0.0 ، tensorflow.keras & gt = 2.2.0.

يمكن العثور على مزيد من المعلومات حول التثبيت مثل التبعيات والمتطلبات الاختيارية هنا.

لتمكين المرونة وسهولة الاستخدام والتكرار ، يتم توزيع النموذج باستخدام الوصفة. ترميز الوصفات التعليمات اللازمة لتعديل النموذج و / أو عملية التدريب كقائمة من المعدلات. يمكن أن تكون المعدلات النموذجية أي شيء من ضبط معدل التعلم للمحسن إلى التقليم التدريجي للحجم. تتم كتابة الملفات في YAML وتخزينها في ملفات YAML أو markdown باستخدام مادة YAML الأمامية. يتم ترميز باقي نظام SparseML لتحليل الوصفات إلى تنسيق أصلي للإطار المطلوب وتطبيق التعديلات على النموذج وخط أنابيب التدريب.

يمكن إنشاء فئات ScheduledModifierManager من الوصفات الموجودة في جميع أطر ML المدعومة. تتعامل فئات المدير مع تجاوز الرسوم البيانية للتدريب لتطبيق المعدلات كما هو موضح في الوصفة المرغوبة. يمكن للمديرين تطبيق الوصفات في لقطة واحدة أو التدريب بطرق واعية. يتم استدعاء لقطة واحدة عن طريق استدعاء .apply (.) على المدير بينما يتطلب التدريب إدراكًا أن المكالمات في التهيئة (.) (اختياري) ، والتعديل (.) ، والإنهاء (.).

بالنسبة للأطر ، هذا يعني أنه يجب إضافة بضعة أسطر فقط من التعليمات البرمجية لبدء دعم التقليم والتكميم والتعديلات الأخرى على معظم خطوط أنابيب التدريب. على سبيل المثال ، يطبق ما يلي وصفة بأسلوب تدريبي مدرك:

بدلاً من التدريب المدرك ، يوضح المثال التالي كيفية تنفيذ وصفة بطريقة لقطة واحدة:

يمكن العثور على مزيد من المعلومات حول قاعدة التعليمات البرمجية والعمليات المضمنة في مستندات SparseML:


الشكل المرن غير الرسمي يكتسب شعبية - الوصفات

مكتبات لتطبيق وصفات التوزيع على الشبكات العصبية ببضعة أسطر من التعليمات البرمجية ، مما يتيح نماذج أسرع وأصغر

SparseML عبارة عن مجموعة أدوات تشتمل على واجهات برمجة التطبيقات (API) و CLIs والنصوص والمكتبات التي تطبق أحدث خوارزميات التشتيت مثل التقليم والتكميم على أي شبكة عصبية. تمكّن المناهج العامة القائمة على الوصفات والمبنية حول هذه الخوارزميات من تبسيط إنشاء نماذج أسرع وأصغر لمجتمع أداء ML بشكل عام.

يحتوي مستودع GitHub على عمليات تكامل داخل الأنظمة البيئية PyTorch و Keras و TensorFlow V1 ، مما يسمح بتوزيع النماذج بشكل سلس.

نقل التعلم من النماذج المتفرقة

تم اختبار هذا المستودع على أنظمة Python 3.6+ و Linux / Debian. يوصى بالتثبيت في بيئة افتراضية للحفاظ على النظام الخاص بك بالترتيب. أطر عمل ML المدعومة حاليًا هي التالية: torch & gt = 1.1.0 ، & lt = 1.8.0 ، tensorflow & gt = 1.8.0 ، & lt = 2.0.0 ، tensorflow.keras & gt = 2.2.0.

يمكن العثور على مزيد من المعلومات حول التثبيت مثل التبعيات والمتطلبات الاختيارية هنا.

لتمكين المرونة وسهولة الاستخدام والتكرار ، يتم توزيع النموذج باستخدام الوصفة. تقوم الوصفات بترميز التعليمات اللازمة لتعديل النموذج و / أو عملية التدريب كقائمة من المعدلات. يمكن أن تكون المعدلات النموذجية أي شيء من ضبط معدل التعلم للمحسن إلى التقليم التدريجي الحجم. تتم كتابة الملفات في YAML وتخزينها في ملفات YAML أو markdown باستخدام مادة YAML الأمامية. يتم ترميز باقي نظام SparseML لتحليل الوصفات إلى تنسيق أصلي للإطار المطلوب وتطبيق التعديلات على النموذج وخط أنابيب التدريب.

يمكن إنشاء فئات ScheduledModifierManager من الوصفات الموجودة في جميع أطر ML المدعومة. تتعامل فئات المدير مع تجاوز الرسوم البيانية للتدريب لتطبيق المعدلات كما هو موضح في الوصفة المرغوبة. يمكن للمديرين تطبيق الوصفات في لقطة واحدة أو التدريب بطرق واعية. يتم استدعاء لقطة واحدة من خلال استدعاء .apply (.) على المدير بينما يتطلب التدريب إدراكًا أن المكالمات في التهيئة (.) (اختياري) ، والتعديل (.) ، والإنهاء (.).

بالنسبة للأطر ، هذا يعني أنه يجب إضافة بضعة أسطر فقط من التعليمات البرمجية لبدء دعم التقليم والتكميم والتعديلات الأخرى على معظم خطوط أنابيب التدريب. على سبيل المثال ، يطبق ما يلي وصفة بأسلوب تدريبي مدرك:

بدلاً من التدريب المدرك ، يوضح المثال التالي كيفية تنفيذ وصفة بطريقة لقطة واحدة:

يمكن العثور على مزيد من المعلومات حول قاعدة التعليمات البرمجية والعمليات المضمنة في مستندات SparseML:


الشكل المرن غير الرسمي يكتسب شعبية - الوصفات

مكتبات لتطبيق وصفات التوزيع على الشبكات العصبية ببضعة أسطر من التعليمات البرمجية ، مما يتيح نماذج أسرع وأصغر

SparseML عبارة عن مجموعة أدوات تتضمن واجهات برمجة التطبيقات (API) و CLIs والنصوص والمكتبات التي تطبق أحدث خوارزميات التشتيت مثل التقليم والتكميم على أي شبكة عصبية. تمكّن المناهج العامة القائمة على الوصفات والمبنية حول هذه الخوارزميات من تبسيط إنشاء نماذج أسرع وأصغر لمجتمع أداء ML بشكل عام.

يحتوي مستودع GitHub على عمليات تكامل داخل الأنظمة البيئية PyTorch و Keras و TensorFlow V1 ، مما يسمح بتوزيع النماذج بشكل سلس.

نقل التعلم من النماذج المتفرقة

تم اختبار هذا المستودع على أنظمة Python 3.6+ و Linux / Debian. يوصى بالتثبيت في بيئة افتراضية للحفاظ على النظام الخاص بك بالترتيب. أطر عمل ML المدعومة حاليًا هي التالية: torch & gt = 1.1.0 ، & lt = 1.8.0 ، tensorflow & gt = 1.8.0 ، & lt = 2.0.0 ، tensorflow.keras & gt = 2.2.0.

يمكن العثور على مزيد من المعلومات حول التثبيت مثل التبعيات والمتطلبات الاختيارية هنا.

لتمكين المرونة وسهولة الاستخدام والتكرار ، يتم توزيع النموذج باستخدام الوصفة. تقوم الوصفات بترميز التعليمات اللازمة لتعديل النموذج و / أو عملية التدريب كقائمة من المعدلات. يمكن أن تكون المعدلات النموذجية أي شيء من ضبط معدل التعلم للمحسن إلى التقليم التدريجي الحجم. تتم كتابة الملفات في YAML وتخزينها في ملفات YAML أو markdown باستخدام مادة YAML الأمامية. يتم ترميز باقي نظام SparseML لتحليل الوصفات إلى تنسيق أصلي للإطار المطلوب وتطبيق التعديلات على النموذج وخط أنابيب التدريب.

يمكن إنشاء فئات ScheduledModifierManager من الوصفات الموجودة في جميع أطر ML المدعومة. تتعامل فئات المدير مع تجاوز الرسوم البيانية للتدريب لتطبيق المعدلات كما هو موضح في الوصفة المرغوبة. يمكن للمديرين تطبيق الوصفات في لقطة واحدة أو التدريب بطرق واعية. يتم استدعاء لقطة واحدة عن طريق استدعاء .apply (.) على المدير بينما يتطلب التدريب إدراكًا أن المكالمات في التهيئة (.) (اختياري) ، والتعديل (.) ، والإنهاء (.).

بالنسبة للأطر ، هذا يعني أنه يجب إضافة بضعة أسطر فقط من التعليمات البرمجية لبدء دعم التقليم والتكميم والتعديلات الأخرى على معظم خطوط أنابيب التدريب. على سبيل المثال ، يطبق ما يلي وصفة بأسلوب تدريبي مدرك:

بدلاً من التدريب المدرك ، يوضح المثال التالي كيفية تنفيذ وصفة بطريقة لقطة واحدة:

يمكن العثور على مزيد من المعلومات حول قاعدة التعليمات البرمجية والعمليات المضمنة في مستندات SparseML:


الشكل المرن غير الرسمي يكتسب شعبية - الوصفات

مكتبات لتطبيق وصفات التوزيع على الشبكات العصبية ببضعة أسطر من التعليمات البرمجية ، مما يتيح نماذج أسرع وأصغر

SparseML عبارة عن مجموعة أدوات تتضمن واجهات برمجة التطبيقات (API) و CLIs والنصوص والمكتبات التي تطبق أحدث خوارزميات التشتيت مثل التقليم والتكميم على أي شبكة عصبية. تمكّن المناهج العامة القائمة على الوصفات والمبنية حول هذه الخوارزميات من تبسيط إنشاء نماذج أسرع وأصغر لمجتمع أداء ML بشكل عام.

يحتوي مستودع GitHub على عمليات تكامل داخل الأنظمة البيئية PyTorch و Keras و TensorFlow V1 ، مما يسمح بتوزيع النماذج بشكل سلس.

نقل التعلم من النماذج المتفرقة

تم اختبار هذا المستودع على أنظمة Python 3.6+ و Linux / Debian. يوصى بالتثبيت في بيئة افتراضية للحفاظ على النظام الخاص بك بالترتيب. أطر عمل ML المدعومة حاليًا هي التالية: torch & gt = 1.1.0 ، & lt = 1.8.0 ، tensorflow & gt = 1.8.0 ، & lt = 2.0.0 ، tensorflow.keras & gt = 2.2.0.

يمكن العثور على مزيد من المعلومات حول التثبيت مثل التبعيات والمتطلبات الاختيارية هنا.

لتمكين المرونة وسهولة الاستخدام والتكرار ، يتم توزيع النموذج باستخدام الوصفة. ترميز الوصفات التعليمات اللازمة لتعديل النموذج و / أو عملية التدريب كقائمة من المعدلات. يمكن أن تكون المعدلات النموذجية أي شيء من ضبط معدل التعلم للمحسن إلى التقليم التدريجي الحجم. تتم كتابة الملفات في YAML وتخزينها في ملفات YAML أو markdown باستخدام مادة YAML الأمامية. يتم ترميز باقي نظام SparseML لتحليل الوصفات إلى تنسيق أصلي للإطار المطلوب وتطبيق التعديلات على النموذج وخط أنابيب التدريب.

يمكن إنشاء فئات ScheduledModifierManager من الوصفات الموجودة في جميع أطر ML المدعومة. تتعامل فئات المدير مع تجاوز الرسوم البيانية للتدريب لتطبيق المعدلات كما هو موضح في الوصفة المرغوبة. يمكن للمديرين تطبيق الوصفات في لقطة واحدة أو التدريب بطرق واعية. يتم استدعاء لقطة واحدة من خلال استدعاء .apply (.) على المدير بينما يتطلب التدريب إدراكًا أن المكالمات في التهيئة (.) (اختياري) ، والتعديل (.) ، والإنهاء (.).

بالنسبة للأطر ، هذا يعني أنه يجب إضافة بضعة أسطر فقط من التعليمات البرمجية لبدء دعم التقليم والتكميم والتعديلات الأخرى على معظم خطوط أنابيب التدريب. على سبيل المثال ، يطبق ما يلي وصفة بأسلوب تدريبي مدرك:

بدلاً من التدريب المدرك ، يوضح المثال التالي كيفية تنفيذ وصفة بطريقة لقطة واحدة:

يمكن العثور على مزيد من المعلومات حول قاعدة التعليمات البرمجية والعمليات المضمنة في مستندات SparseML:


الشكل المرن غير الرسمي يكتسب شعبية - الوصفات

مكتبات لتطبيق وصفات التوزيع على الشبكات العصبية ببضعة أسطر من التعليمات البرمجية ، مما يتيح نماذج أسرع وأصغر

SparseML عبارة عن مجموعة أدوات تتضمن واجهات برمجة التطبيقات (API) و CLIs والنصوص والمكتبات التي تطبق أحدث خوارزميات التشتيت مثل التقليم والتكميم على أي شبكة عصبية. تمكّن المناهج العامة القائمة على الوصفات والمبنية حول هذه الخوارزميات من تبسيط إنشاء نماذج أسرع وأصغر لمجتمع أداء ML بشكل عام.

يحتوي مستودع GitHub على عمليات تكامل داخل الأنظمة البيئية PyTorch و Keras و TensorFlow V1 ، مما يسمح بتوزيع النماذج بشكل سلس.

نقل التعلم من النماذج المتفرقة

تم اختبار هذا المستودع على أنظمة Python 3.6+ و Linux / Debian. يوصى بالتثبيت في بيئة افتراضية للحفاظ على النظام الخاص بك بالترتيب. أطر عمل ML المدعومة حاليًا هي التالية: torch & gt = 1.1.0 ، & lt = 1.8.0 ، tensorflow & gt = 1.8.0 ، & lt = 2.0.0 ، tensorflow.keras & gt = 2.2.0.

يمكن العثور على مزيد من المعلومات حول التثبيت مثل التبعيات والمتطلبات الاختيارية هنا.

لتمكين المرونة وسهولة الاستخدام والتكرار ، يتم توزيع النموذج باستخدام الوصفة. تقوم الوصفات بترميز التعليمات اللازمة لتعديل النموذج و / أو عملية التدريب كقائمة من المعدلات. يمكن أن تكون المعدلات النموذجية أي شيء من ضبط معدل التعلم للمحسن إلى التقليم التدريجي الحجم. تتم كتابة الملفات في YAML وتخزينها في ملفات YAML أو markdown باستخدام مادة YAML الأمامية. يتم ترميز باقي نظام SparseML لتحليل الوصفات إلى تنسيق أصلي للإطار المطلوب وتطبيق التعديلات على النموذج وخط أنابيب التدريب.

يمكن إنشاء فئات ScheduledModifierManager من الوصفات الموجودة في جميع أطر ML المدعومة. تتعامل فئات المدير مع تجاوز الرسوم البيانية للتدريب لتطبيق المعدلات كما هو موضح في الوصفة المرغوبة. يمكن للمديرين تطبيق الوصفات في لقطة واحدة أو التدريب بطرق واعية. يتم استدعاء لقطة واحدة عن طريق استدعاء .apply (.) على المدير بينما يتطلب التدريب إدراكًا أن المكالمات في التهيئة (.) (اختياري) ، والتعديل (.) ، والإنهاء (.).

بالنسبة للأطر ، هذا يعني أنه يجب إضافة بضعة أسطر فقط من التعليمات البرمجية لبدء دعم التقليم والتكميم والتعديلات الأخرى على معظم خطوط أنابيب التدريب. على سبيل المثال ، يطبق ما يلي وصفة بأسلوب تدريبي مدرك:

بدلاً من التدريب المدرك ، يوضح المثال التالي كيفية تنفيذ وصفة بطريقة لقطة واحدة:

يمكن العثور على مزيد من المعلومات حول قاعدة التعليمات البرمجية والعمليات المضمنة في مستندات SparseML:


الشكل المرن غير الرسمي يكتسب شعبية - الوصفات

مكتبات لتطبيق وصفات التوزيع على الشبكات العصبية ببضعة أسطر من التعليمات البرمجية ، مما يتيح نماذج أسرع وأصغر

SparseML عبارة عن مجموعة أدوات تتضمن واجهات برمجة التطبيقات (API) و CLIs والنصوص والمكتبات التي تطبق أحدث خوارزميات التشتيت مثل التقليم والتكميم على أي شبكة عصبية. تمكّن المناهج العامة القائمة على الوصفات والمبنية حول هذه الخوارزميات من تبسيط إنشاء نماذج أسرع وأصغر لمجتمع أداء ML بشكل عام.

يحتوي مستودع GitHub على عمليات تكامل داخل الأنظمة البيئية PyTorch و Keras و TensorFlow V1 ، مما يسمح بتوزيع النماذج بشكل سلس.

نقل التعلم من النماذج المتفرقة

تم اختبار هذا المستودع على أنظمة Python 3.6+ و Linux / Debian. يوصى بالتثبيت في بيئة افتراضية للحفاظ على النظام الخاص بك بالترتيب. أطر عمل ML المدعومة حاليًا هي التالية: torch & gt = 1.1.0 ، & lt = 1.8.0 ، tensorflow & gt = 1.8.0 ، & lt = 2.0.0 ، tensorflow.keras & gt = 2.2.0.

يمكن العثور على مزيد من المعلومات حول التثبيت مثل التبعيات والمتطلبات الاختيارية هنا.

لتمكين المرونة وسهولة الاستخدام والتكرار ، يتم توزيع النموذج باستخدام الوصفة. ترميز الوصفات التعليمات اللازمة لتعديل النموذج و / أو عملية التدريب كقائمة من المعدلات. يمكن أن تكون المعدلات النموذجية أي شيء من ضبط معدل التعلم للمحسن إلى التقليم التدريجي الحجم. تتم كتابة الملفات في YAML وتخزينها في ملفات YAML أو markdown باستخدام مادة YAML الأمامية. يتم ترميز باقي نظام SparseML لتحليل الوصفات إلى تنسيق أصلي للإطار المطلوب وتطبيق التعديلات على النموذج وخط أنابيب التدريب.

يمكن إنشاء فئات ScheduledModifierManager من الوصفات الموجودة في جميع أطر ML المدعومة. تتعامل فئات المدير مع تجاوز الرسوم البيانية للتدريب لتطبيق المعدلات كما هو موضح في الوصفة المرغوبة. يمكن للمديرين تطبيق الوصفات في لقطة واحدة أو التدريب بطرق واعية. يتم استدعاء لقطة واحدة من خلال استدعاء .apply (.) على المدير بينما يتطلب التدريب إدراكًا أن المكالمات في التهيئة (.) (اختياري) ، والتعديل (.) ، والإنهاء (.).

بالنسبة للأطر ، هذا يعني أنه يجب إضافة بضعة أسطر فقط من التعليمات البرمجية لبدء دعم التقليم والتكميم والتعديلات الأخرى على معظم خطوط أنابيب التدريب. على سبيل المثال ، يطبق ما يلي وصفة بأسلوب تدريبي مدرك:

بدلاً من التدريب المدرك ، يوضح المثال التالي كيفية تنفيذ وصفة بطريقة لقطة واحدة:

يمكن العثور على مزيد من المعلومات حول قاعدة التعليمات البرمجية والعمليات المضمنة في مستندات SparseML:


الشكل المرن غير الرسمي يكتسب شعبية - الوصفات

مكتبات لتطبيق وصفات التوزيع على الشبكات العصبية ببضعة أسطر من التعليمات البرمجية ، مما يتيح نماذج أسرع وأصغر

SparseML عبارة عن مجموعة أدوات تتضمن واجهات برمجة التطبيقات (API) و CLIs والنصوص والمكتبات التي تطبق أحدث خوارزميات التشتيت مثل التقليم والتكميم على أي شبكة عصبية. تمكّن المناهج العامة القائمة على الوصفات والمبنية حول هذه الخوارزميات من تبسيط إنشاء نماذج أسرع وأصغر لمجتمع أداء ML بشكل عام.

يحتوي مستودع GitHub على عمليات تكامل داخل الأنظمة البيئية PyTorch و Keras و TensorFlow V1 ، مما يسمح بتوزيع النماذج بشكل سلس.

نقل التعلم من النماذج المتفرقة

تم اختبار هذا المستودع على أنظمة Python 3.6+ و Linux / Debian. يوصى بالتثبيت في بيئة افتراضية للحفاظ على النظام الخاص بك بالترتيب. أطر عمل ML المدعومة حاليًا هي التالية: torch & gt = 1.1.0 ، & lt = 1.8.0 ، tensorflow & gt = 1.8.0 ، & lt = 2.0.0 ، tensorflow.keras & gt = 2.2.0.

يمكن العثور على مزيد من المعلومات حول التثبيت مثل التبعيات والمتطلبات الاختيارية هنا.

لتمكين المرونة وسهولة الاستخدام والتكرار ، يتم توزيع النموذج باستخدام الوصفة. ترميز الوصفات التعليمات اللازمة لتعديل النموذج و / أو عملية التدريب كقائمة من المعدلات. يمكن أن تكون المعدلات النموذجية أي شيء من ضبط معدل التعلم للمحسن إلى التقليم التدريجي الحجم. تتم كتابة الملفات في YAML وتخزينها في ملفات YAML أو markdown باستخدام مادة YAML الأمامية. يتم ترميز باقي نظام SparseML لتحليل الوصفات إلى تنسيق أصلي للإطار المطلوب وتطبيق التعديلات على النموذج وخط أنابيب التدريب.

يمكن إنشاء فئات ScheduledModifierManager من الوصفات الموجودة في جميع أطر عمل ML المدعومة. تتعامل فئات المدير مع تجاوز الرسوم البيانية للتدريب لتطبيق المعدلات كما هو موضح في الوصفة المرغوبة. يمكن للمديرين تطبيق الوصفات في لقطة واحدة أو التدريب بطرق واعية. يتم استدعاء لقطة واحدة عن طريق استدعاء .apply (.) على المدير بينما يتطلب التدريب إدراكًا أن المكالمات في التهيئة (.) (اختياري) ، والتعديل (.) ، والإنهاء (.).

بالنسبة للأطر ، هذا يعني أنه يجب إضافة بضعة أسطر فقط من التعليمات البرمجية لبدء دعم التقليم والتكميم والتعديلات الأخرى على معظم خطوط أنابيب التدريب. على سبيل المثال ، يطبق ما يلي وصفة بأسلوب تدريبي مدرك:

بدلاً من التدريب المدرك ، يوضح المثال التالي كيفية تنفيذ وصفة بطريقة لقطة واحدة:

يمكن العثور على مزيد من المعلومات حول قاعدة التعليمات البرمجية والعمليات المضمنة في مستندات SparseML:


الشكل المرن غير الرسمي يكتسب شعبية - الوصفات

مكتبات لتطبيق وصفات التوزيع على الشبكات العصبية ببضعة أسطر من التعليمات البرمجية ، مما يتيح نماذج أسرع وأصغر

SparseML عبارة عن مجموعة أدوات تشتمل على واجهات برمجة التطبيقات (API) و CLIs والنصوص والمكتبات التي تطبق أحدث خوارزميات التشتيت مثل التقليم والتكميم على أي شبكة عصبية. تمكّن المناهج العامة القائمة على الوصفات والمبنية حول هذه الخوارزميات من تبسيط إنشاء نماذج أسرع وأصغر لمجتمع أداء ML بشكل عام.

يحتوي مستودع GitHub على عمليات تكامل داخل الأنظمة البيئية PyTorch و Keras و TensorFlow V1 ، مما يسمح بتوزيع النماذج بشكل سلس.

نقل التعلم من النماذج المتفرقة

تم اختبار هذا المستودع على أنظمة Python 3.6+ و Linux / Debian. يوصى بالتثبيت في بيئة افتراضية للحفاظ على النظام الخاص بك بالترتيب. أطر عمل ML المدعومة حاليًا هي التالية: torch & gt = 1.1.0 ، & lt = 1.8.0 ، tensorflow & gt = 1.8.0 ، & lt = 2.0.0 ، tensorflow.keras & gt = 2.2.0.

يمكن العثور على مزيد من المعلومات حول التثبيت مثل التبعيات والمتطلبات الاختيارية هنا.

لتمكين المرونة وسهولة الاستخدام والتكرار ، يتم توزيع النموذج باستخدام الوصفة. ترميز الوصفات التعليمات اللازمة لتعديل النموذج و / أو عملية التدريب كقائمة من المعدلات. يمكن أن تكون المعدلات النموذجية أي شيء من ضبط معدل التعلم للمحسن إلى التقليم التدريجي للحجم. تتم كتابة الملفات في YAML وتخزينها في ملفات YAML أو markdown باستخدام مادة YAML الأمامية. يتم ترميز باقي نظام SparseML لتحليل الوصفات إلى تنسيق أصلي للإطار المطلوب وتطبيق التعديلات على النموذج وخط أنابيب التدريب.

يمكن إنشاء فئات ScheduledModifierManager من الوصفات الموجودة في جميع أطر ML المدعومة. تتعامل فئات المدير مع تجاوز الرسوم البيانية للتدريب لتطبيق المعدلات كما هو موضح في الوصفة المرغوبة. يمكن للمديرين تطبيق الوصفات في لقطة واحدة أو التدريب بطرق واعية. يتم استدعاء لقطة واحدة عن طريق استدعاء .apply (.) على المدير بينما يتطلب التدريب إدراكًا أن المكالمات في التهيئة (.) (اختياري) ، والتعديل (.) ، والإنهاء (.).

بالنسبة للأطر ، هذا يعني أنه يجب إضافة بضعة أسطر فقط من التعليمات البرمجية لبدء دعم التقليم والتكميم والتعديلات الأخرى على معظم خطوط أنابيب التدريب. على سبيل المثال ، يطبق ما يلي وصفة بأسلوب تدريبي مدرك:

بدلاً من التدريب المدرك ، يوضح المثال التالي كيفية تنفيذ وصفة بطريقة لقطة واحدة:

يمكن العثور على مزيد من المعلومات حول قاعدة التعليمات البرمجية والعمليات المضمنة في مستندات SparseML:


شاهد الفيديو: Стиль casual Уличная мода


المقال السابق

تقول الدراسة: من المرجح أن يأكل الأطفال الخضار إذا لم يعجبهم مبتدئهم

المقالة القادمة

وصفة بسكويت شامروك السكر