القاهرة – كارول كارم:
طوّر فريق بحثي من جامعة ولاية بنسلفانيا (Penn State) أداة ذكاء اصطناعي جديدة مخصصة لمساعدة الأشخاص ضعاف البصر على التنقل في محيطهم، ومصممة خصيصاً لاحتياجاتهم. وجمع الفريق بين توصيات مجتمع الأشخاص ذوي الإعاقة البصرية والتقنيات الذكية لتطوير أداة NaviSense، وهي تطبيق يعمل على الهواتف الذكية قادر على التعرّف على الأشياء التي يبحث عنها المستخدم في الوقت الحقيقي اعتماداً على الأوامر الصوتية.ويقوم التطبيق بتوجيه المستخدمين نحو الأجسام المحيطة من خلال الصوت والاهتزازات، وقد أبلغ مشاركون في الاختبارات عن تجربة أفضل مقارنة بخدمات المساعدة البصرية المتاحة حالياً.وقدّم الباحثون الأداة في مؤتمر “SIGACCESS ASSETS 25” في أكتوبر الماضي، حيث حصلوا على جائزة أفضل ملصق بحثي بتصويت الجمهور. كما نُشرت تفاصيلها خلال المؤتمر الدولي الـ27 حول الحوسبة والإتاحة (ACM SIGACCESS).
قال فيجايكريشنان نارايانان، قائد فريق تطوير الأداة، إن العديد من برامج المساعدة الحالية تربط المستخدمين بفريق دعم بشري، وهو ما قد يكون غير فعّال أو يثير مخاوف تتعلق بالخصوصية.وأضاف أن بعض الأنظمة المؤتمتة تتطلب تحميل نماذج الأشياء مسبقاً حتى تتمكن من التعرّف عليها، مما يحد مرونتها بشدة.وللتغلب على ذلك، دمج الفريق النماذج اللغوية الضخمة (LLMs) ونماذج الرؤية واللغة (VLMs)، وهي أنظمة قادرة على معالجة كميات كبيرة من البيانات داخل تطبيق NaviSense.ويتصل التطبيق بخادم خارجي يستضيف هذه النماذج، مما يتيح له التعرّف على العناصر في الوقت الحقيقي اعتماداً على الأوامر الصوتية دون الحاجة إلى نماذج مُحمّلة مسبقاً


