-->

حرية سقفها السماء

وكالة سرايا الإخبارية

إبحــث في ســــرايا
الخميس ,12 ديسمبر, 2024 م
طباعة
  • المشاهدات: 3154

ميزة ثورية وغريبة من غوغل قراءة المشاعر .. ما أهميتها؟

ميزة ثورية وغريبة من غوغل قراءة المشاعر .. ما أهميتها؟

ميزة ثورية وغريبة من غوغل قراءة المشاعر ..  ما أهميتها؟

11-12-2024 09:13 AM

تعديل حجم الخط:

سرايا - أعلنت شركة التكنولوجيا العملاقة "غوغل" عن تطوير ميزة ثورية وغريبة نوعًا ما لمجموعة نماذج الذكاء الاصطناعي الجديدة لديها PaliGemma 2، تسمح لها بالقدرة على "قراءة المشاعر".

المجموعة الجديدة تتميز بقدرتها على تحليل الصور، مما يمكّن الذكاء الاصطناعي من إنشاء تعليقات توضيحية، والإجابة على أسئلة حول الأشخاص الذين يراهم في الصور.

ميزة ثورية وغريبة من غوغل
وعبر مدونتها الرسمية، كتبت "غوغل" في منشور، أن نماذج PaliGemma 2 تولد تسميات توضيحية مفصلة وذات صلة بالسياق للصور، وتتجاوز التعرف البسيط على الكائنات والأشياء لوصف الأفعال والمشاعر والسرد العام للمشهد.

وأشارت الشركة، إلى أنها أجرت اختبارات واسعة النطاق لتقييم التحيزات الديموغرافية في PaliGemma 2، وسجلت مستويات منخفضة من "الكراهية والألفاظ النابية" مقارنة بمعايير الصناعة.

القدرة على قراءة المشاعر
وبحسب الشركة، فإن تقنية التعرف على المشاعر لا تعمل بشكل تلقائي وتحتاج لضبط، وبالرغم من ذلك، فقد أبدى الخبراء قلقهم من احتمال وجود تقنية لكشف المشاعر متاحة للعلن.

لكن "غوغل" لم تقدم القائمة الكاملة للمعايير التي استخدمتها، ولم تشر إلى أنواع الاختبارات التي تم إجراؤها.

وكان FairFace هو المعيار الوحيد الذي كشفت عنه الشركة، وهو عبارة عن مجموعة من عشرات الآلاف من صور الأشخاص، ورغم قول "غوغل" إن PaliGemma 2 سجل نتائج جيدة على FairFace، لكن انتقد بعض الباحثين ذلك المعيار باعتباره مقياساً متحيزاً، مشيرين، إلى أنه لا يمثل سوى عدد قليل من المجموعات العرقية.

قلق كبير من الميزة الجديدة
وبالتزامن مع إعلان "غوغل"، عن هذه الميزة الغريبة، فقد أعرب متخصصون في الذكاء الاصطناعي عن قلقهم من مخاطر تلك الميزة، حيث قالت ساندرا واتشر، أستاذة أخلاقيات البيانات والذكاء الاصطناعي في معهد أوكسفورد للإنترنت، في تصريحات لموقع Tech crunch: "إن هذا أمر مقلق للغاية بالنسبة لي، أجد أنه من الصعب افتراض أننا نستطيع قراءة مشاعر الناس".

فيما أوضح مايك كوك، زميل باحث في جامعة كينغز كوليدج لندن المتخصصة في الذكاء الاصطناعي، أن اكتشاف المشاعر غير ممكن في الحالة العامة، لأن الناس يختبرون المشاعر بطرق معقدة.

ولفت كوك، إلى أن أنظمة الكشف عن المشاعر أثارت حفيظة الجهات التنظيمية في الخارج، التي سعت إلى الحد من استخدام التكنولوجيا في السياقات عالية المخاطر، إذ يحظر قانون الذكاء الاصطناعي في الاتحاد الأوروبي على المدارس وأصحاب العمل نشر أجهزة كشف المشاعر، باستثناء وكالات إنفاذ القانون.

وعليه، فإن أكبر مخاوف النماذج المفتوحة تتمثل في إساءة استخدامها، مما قد يؤدي إلى ضرر حقيقي وكبير.

رد غوغل على مخاطر هذه الميزة
وسُئل المتحدث باسم "غوغل" عن مخاطر إطلاق PaliGemma 2 بشكل عام، وقال لموقع "تيك كرانش" التقني: "إن الشركة تقف وراء اختباراتها الأضرار التمثيلية فيما يتعلق بالإجابة عن الأسئلة البصرية والتوصيف".

وأضاف: "لقد أجرينا تقييمات دقيقة لنماذج تحديد المشاعر فيما يتعلق بالأخلاق والسلامة، بما في ذلك سلامة الأطفال وسلامة المحتوى".








طباعة
  • المشاهدات: 3154
 
1 -
ترحب "سرايا" بتعليقاتكم الإيجابية في هذه الزاوية ، ونتمنى أن تبتعد تعليقاتكم الكريمة عن الشخصنة لتحقيق الهدف منها وهو التفاعل الهادف مع ما يتم نشره في زاويتكم هذه.
11-12-2024 09:13 AM

سرايا

لا يوجد تعليقات
الاسم : *
البريد الالكتروني :
التعليق : *
رمز التحقق : تحديث الرمز
أكتب الرمز :

إقرأ أيضا

الأكثر مشاهدة خلال اليوم

إقرأ أيـضـاَ

أخبار فنية

رياضـة

منوعات من العالم