06-02-2025 03:16 PM
سرايا - أزالت شركة غوغل التزامًا أخلاقيًا من مبادئها المتعلقة بالذكاء الاصطناعي، مما أثار مخاوف من احتمال سعيها لتطبيقات ضارة، بما في ذلك تكنولوجيا الأسلحة.
كما ستفرض غوغل قواعد أكثر صرامة ضد المراجعات المزيفة بعد تحقيق أجراه مراقب بريطاني.
قامت غوغل بإزالة جزء رئيسي من مبادئها الخاصة بالذكاء الاصطناعي، وهو القسم الذي كان يلتزم بتجنب التطبيقات الضارة المحتملة، بما في ذلك الأسلحة. كان القسم المحذوف، الذي يحمل عنوان "تطبيقات الذكاء الاصطناعي التي لن نسعى إليها"، يصرح صراحةً بأن الشركة لن تطور تقنيات قد تسبب ضررًا، وذلك وفقًا لنسخ مؤرشفة من الصفحة راجعتها بلومبرغ.
أثار هذا التغيير قلق خبراء أخلاقيات الذكاء الاصطناعي. وانتقدت مارغريت ميتشل، الرئيسة السابقة لفريق أخلاقيات الذكاء الاصطناعي في غوغل والعالمة الرئيسية للأخلاقيات في شركة Hugging Face، هذه الخطوة قائلة: "إزالة هذا الالتزام يعني محو العمل الذي قام به العديد من الأشخاص في مجال أخلاقيات الذكاء الاصطناعي والنشاط الحقوقي داخل غوغل. والأخطر من ذلك، أنه يعني أن غوغل ستعمل الآن على نشر تقنيات يمكن أن تقتل الناس بشكل مباشر".
ومع تغيّر الضوابط الأخلاقية، تبقى التساؤلات قائمة حول كيفية تعامل غوغل مع المشهد المتغير للذكاء الاصطناعي وهل يشير موقفها الجديد إلى توجه أوسع في الصناعة نحو إعطاء الأولوية للهيمنة السوقية على حساب الاعتبارات الأخلاقية.
1 - |
ترحب "سرايا" بتعليقاتكم الإيجابية في هذه الزاوية ، ونتمنى أن تبتعد تعليقاتكم الكريمة عن الشخصنة لتحقيق الهدف منها وهو التفاعل الهادف مع ما يتم نشره في زاويتكم هذه.
|
06-02-2025 03:16 PM
سرايا |
لا يوجد تعليقات |