استخدام Core ML للذكاء الصناعي في تطبيقات IOS

اليوم أريد أن أشارككم تجربتي في العمل مع Core ML، وهي تقنية من آبل تسمح للمطورين بدمج تعلم الآلة في تطبيقات iOS بسهولة وكفاءة. باستخدام Core ML، يمكنك بناء تطبيقات ذكية تستطيع التعرف على الصور، تحليل النصوص، وحتى اتخاذ قرارات بناءً على البيانات.

كمثال عملي، قمت بتطوير تطبيق بسيط يستخدم MobileNet، أحد نماذج التعلم الآلي المدربة مسبقاً، للتعرف على أنواع الطعام في الصور. سواءً التقطت الصورة عبر الكاميرا أو اخترتها من المعرض، التطبيق يحلل الصورة ويحدد نوع الطعام. بعد ذلك، يتم البحث في قاعدة بيانات (بصيغة JSON للسهولة) لاستخراج المعلومات الغذائية مثل السعرات الحرارية، البروتين، والدهون، وعرضها للمستخدم.

ملاحظة مهمة:
المشروع هو مجرد نموذج تعليمي يهدف إلى استكشاف إمكانيات Core ML، وليس تطبيقاً متكاملاً جاهزاً للنشر. دقة التعرف على الطعام تعتمد على نموذج MobileNet وقاعدة البيانات المستخدمة، وقد لا تكون دائماً مثالية. الهدف الأساسي هو فهم كيفية دمج تقنيات تعلم الآلة في التطبيقات العملية.

هذا مجرد مثال بسيط لما يمكن تحقيقه باستخدام Core ML. الإمكانيات كبيرة ومتنوعة، من التطبيقات الطبية إلى الألعاب الذكية وحلول الأعمال. إذا كنتم مهتمين بمعرفة المزيد عن تعلم الآلة وعن البرمجة عموماً، لا تترددوا بالتواصل معي.
رابط المشروع على github

mutasemhajhasan/core-ml-classification-sample

وشكراً لمتابعتكم واهتمامكم.