27-04-2025 04:09 PM
سرايا - كشف ديميس هاسابيس، الرئيس التنفيذي لشركة DeepMind في غوغل، أن الذكاء الاصطناعي العام، والذي يمتلك قدرات معرفية مماثلة للبشر، قد يتم تطويره خلال خمس إلى عشر سنوات فقط. وأكد كذلك أن الذكاء الاصطناعي سيصبح قويًا بما يكفي لمحاربة الأمراض الكبرى وحلها خلال السنوات القادمة.
ومع ذلك، رفض هاسابيس، وهو باحث حائز على جائزة نوبل، فكرة أن أنظمة الذكاء الاصطناعي الحديثة تمتلك وعيًا. كما أقر بأن هذه التقنيات لا تزال تفتقر إلى الإبداع الحقيقي. حيث قال: "لا تزال هذه النماذج تشبه متوسط المعرفة البشرية المتاحة. هذا ما تعلمته. لكنها لا تزال غير قادرة على طرح أسئلة جديدة كليًا أو وضع فرضيات لم تخطر من قبل على أحد."
في وقت تتسارع فيه التحولات التقنية بوتيرة غير مسبوقة، سلط ديميس هاسابيس الحائز على جائزة نوبل للكيمياء عام 2024، الضوء على مستقبل الذكاء الاصطناعي خلال مقابلة حديثة مع مجلة TIME ، الذي نشرته اليوم.
خلال هذا اللقاء، لم يكتفِ هاسابيس باستعراض التقدم الهائل الذي تحقق منذ مقابلته السابقة مع المجلة في نوفمبر 2022، قبل أسابيع قليلة فقط من إطلاق ChatGPT وإشعال جنون الذكاء الاصطناعي العالمي ، بل أطلق تحذيرًا واضحًا من المخاطر التي تلوح في الأفق مع اقترابنا من تطوير الذكاء الاصطناعي العام (AGI).
فقبل عامين ونصف، حذر هاسابيس من "التسرع وكسر الحواجز"، منتقدًا ما وصفه حينها بالنهج المتهور لبعض التجريبيين في مجاله، الذين "لا يدركون أنهم يتعاملون مع مواد خطرة"، وفق تعبيره.
واليوم، ومع تسارع تطور الذكاء الاصطناعي بوتيرة فاقت كل التوقعات، باتت فكرة الوصول إلى ذكاء اصطناعي يمتلك قدرات معرفية بشرية، فكرة كانت تعد هامشية في 2022 ،محل اتفاق واسع بين كبار الباحثين، وعلى رأسهم هاسابيس، الذي جعل من تحقيق AGI هدف حياته الأكبر.
غير أن تطوير AGI لا يأتي دون أثمان سياسية وأخلاقية معقدة. فبينما يتطلب تحقيقه كميات هائلة من القدرة الحاسوبية لا تمتلكها سوى حفنة من عمالقة التكنولوجيا مثل Google، فإن ذلك يمنح هذه الشركات، وعلى رأسها Google، نفوذًا هائلًا على مصير التكنولوجيا ذاتها.
وعلى الرغم من أن هاسابيس، عند انضمامه إلى Google عام 2014، نجح في انتزاع تعهد بعدم استخدام تقنيات DeepMind للأغراض العسكرية، إلا أن مرور عقد من الزمن، وسط تصاعد المخاطر الجيوسياسية، أدى إلى تآكل هذا الالتزام. فاليوم، باتت Google تبيع خدمات DeepMind، بما فيها تقنيات الذكاء الاصطناعي، إلى جيوش متعددة، من بينها الجيش الأميركي، وجيش الاحتلال الإسرائيلي كما كشفت TIMEالعام الماضي.
في هذا السياق، يطرح اللقاء مع هاسابيس سؤالًا محوريًا: هل اضطر إلى تقديم تنازلات أخلاقية لتحقيق حلمه القديم ببلوغ الذكاء الاصطناعي العام؟
وهو سؤال تتداخل فيه المصالح التكنولوجية مع حسابات الأمن القومي، وتعيد صياغة العلاقة بين البحث العلمي والقوة العسكرية في عالم يتغير بسرعة مذهلة.
من هو ديميس هاسابيس؟
يحمل ديميس هاسابيس درجة الدكتوراه في علم الأعصاب، وهو أيضًا عالم حاسوب. تلقى تعليمه في جامعات هارفارد ومعهد ماساتشوستس للتكنولوجيا (MIT) وكامبريدج.
وكان هاسابيس أحد مؤسسي مركز DeepMind للبحوث في الذكاء الاصطناعي، والذي اشترته غوغلعام 2014.
وابتكر هاسابيس نموذج الذكاء الاصطناعي AlphaFold بالتعاون مع الباحث جون جامبر، وهو نموذج قادر على التنبؤ بهياكل البروتينات. وقد حصل الاثنان معًا على جائزة نوبل في الكيمياء لعام 2024 تقديرًا لهذا الإنجاز الرائد. وفي نفس العام، منح الملك تشارلز الثالث ملك المملكة المتحدة لقب فارس لهاسابيس.
فبعد عامين ونصف، تغيّر الكثير في عالم الذكاء الاصطناعي. لقد كان تسارع وتيرة التقدم في الذكاء الاصطناعي سريعًا إلى درجة أن العديد من الباحثين — بمن فيهم هاسابيس — باتوا يعتقدون الآن أن الذكاء الاصطناعي بمستوى قدرات البشر (والمعروف في القطاع باسم الذكاء الاصطناعي العام أو AGI) قد يظهر خلال هذا العقد.
وفي عام 2022، كان مجرد الإقرار بإمكانية وجود AGI يُعد فكرة هامشية. لكن هاسابيس لطالما كان مؤمنًا بهذه الفكرة.
في الواقع، فإن تحقيق AGI يمثل هدف حياته الأساسي.
ومن خلال حواره الأخير مع تايم، يعرض هاسابيس رؤيته المزدوجة لهذا التحول التكنولوجي القادم: من جهة، إمكانيات غير مسبوقة لحل أعتى مشكلات العالم، ومن جهة أخرى، احتمالات كارثية إذا ساءت الأمور. حديثه يكشف عن مفترق طرق قد تحدد خياراته مصير الحضارة البشرية لعقود مقبلة.
ولفت هاسابيس إلى أن إنشاء AGI سيتطلب كميات هائلة من القدرة الحاسوبية — بنية تحتية لا تمتلكها سوى قلة من عمالقة التكنولوجيا، من ضمنهم شركة غوغل، وهو ما يمنحها نفوذًا أكبر على هاسابيس مما قد يرغب بالاعتراف به.
ويشير مصطلح الذكاء الاصطناعي العام، المعروف اختصارًا بـ AGI، إلى نوع متقدم من أنظمة الذكاء الاصطناعي يتمتع بقدرة شاملة على أداء أي مهمة فكرية يستطيع الإنسان القيام بها. بخلاف أنظمة الذكاء الاصطناعي التقليدية المحدودة بتخصصات ضيقة مثل الترجمة الآلية أو التعرف على الصور فإن AGI سيكون قادرًا على التعلم والتكيف والإبداع والاستنتاج عبر مختلف المجالات، تمامًا كالعقل البشري. الهدف من تطوير AGI هو بناء أنظمة قادرة على فهم المفاهيم المعقدة، توليد أفكار جديدة، حل المشكلات، والتفاعل مع العالم بمرونة واستقلالية.
وإذا تحقق، فإن AGI يحمل وعودًا عظيمة للبشرية، من بينها تسريع الابتكارات العلمية، القضاء على الأمراض المستعصية، وتحقيق وفرة اقتصادية شاملة. ومع ذلك، يحمل هذا الإنجاز مخاطر جسيمة، إذ قد يؤدي سوء استخدام هذه الأنظمة أو فقدان السيطرة عليها إلى تهديد الحضارة الإنسانية نفسها. ولذلك يعتبر العديد من العلماء، مثل ديميس هاسابيس، أن التعامل مع تطوير AGI يتطلب أعلى درجات الحكمة، والمعايير الأخلاقية الصارمة، والتعاون الدولي لضمان أن يكون تأثيره إيجابيًا على البشرية جمعاء.
وعندما انضم هاسابيس إلى غوغل، استخرج منها تعهدًا: ألا تُستخدم تقنيات DeepMind في الأغراض العسكرية أو تصنيع الأسلحة.
لكن بعد مرور عشر سنوات، لم يعد ذلك التعهد قائمًا.
فالآن، تبيع غوغل خدماتها بما في ذلك ذكاء DeepMind الاصطناعي، إلى جيوش عالمية، من ضمنها جيش الولايات المتحدة، وكما كشفت مجلة TIME العام الماضي وأيضا انضم للقائمة جيش الاحتلال الإسرائيلي.
من "عدم الاستخدام العسكري" إلى بيع تقنيات AGI للجيوش
عندما اشترت غوغل شركة DeepMind عام 2014، اشترط هاسابيس تعهدًا صريحًا: ألا تُستخدم تقنيات الذكاء الاصطناعي التي يطورونها في الأغراض العسكرية أو تصنيع الأسلحة.
كان هذا التعهد بمثابة الحصن الأخلاقي الذي حمى مشروعه العلمي من الاستغلال السياسي والعسكري.
غير أن عالم اليوم لم يعد كما كان. مع تزايد التوترات الجيوسياسية، تصاعدت المخاطر التي تهدد القيم الديمقراطية، ومعها تبدلت أولويات غوغل وديب مايند.
اليوم، لم تعد تلك التعهدات قائمة. فقد كشفت التقارير أن تقنيات DeepMind تباع الآن لجيوش الولايات المتحدة وإسرائيل، لتساهم في مجالات مثل الدفاع السيبراني والاستخبارات المتقدمة.
هاسابيس، الذي كان يومًا يؤمن بضرورة فصل العلم عن الحرب، بات اليوم يبرر هذا الانخراط بالقول: "لا يمكننا أن نفترض بعد الآن أن القيم الديمقراطية ستنتصر من تلقاء نفسها. علينا أن نساعد في حمايتها."
وبالنسبة له، الدخول في تعاون مدروس مع الحكومات الغربية أصبح ضرورة أخلاقية لمواجهة التهديدات المتزايدة.
الذكاء الاصطناعي كأداة مزدوجة: دواء أم سلاح؟
رغم تفاؤله بالفرص التي يتيحها AGI ، من علاج الأمراض المستعصية إلى حل أزمة المناخ عبر ابتكار مصادر طاقة جديدة، يحذر هاسابيس من أن الذكاء الاصطناعي يظل سلاحًا ذا حدين.
فالأنظمة القادرة على تطوير أدوية منقذة للحياة، يمكنها أيضًا تطوير أسلحة بيولوجية مميتة، والخوارزميات المصممة لتعزيز الأمن السيبراني يمكن تحويلها إلى أدوات هجوم مدمرة.
وفي عالم أصبح فيه الوصول إلى التكنولوجيا متاحًا عبر المصادر المفتوحة، يصبح ضبط استخدام الذكاء الاصطناعي تحديًا فائق التعقيد.
لهذا، يرى هاسابيس أن التحدي الحقيقي لا يكمن في تطوير التكنولوجيا بحد ذاتها، بل في بناء معايير عالمية صارمة تضمن استخدامها لأهداف تخدم الإنسانية، لا تدميرها.
ومن أخطر ما يقلق هاسابيس هو طبيعة AGI المستقبلية، إذ يتوقع أن تصبح هذه الأنظمة ذاتية التعلم والتحسين الذاتي.
وهذا يثير سؤالًا وجوديًا: كيف يمكن للإنسان أن يضمن السيطرة على كيانات ذكية قد تتجاوز قدرته على الفهم أو التوجيه؟
هاسابيس لا يقدم إجابات قاطعة، لكنه يحذر من أن الفشل في وضع "قوانين وضوابط لا يمكن تجاوزها" سيجعل البشرية تواجه أنظمة تفكر وتتطور بمعزل عن الإرادة البشرية.
ويقر هاسابيس يقر بأن الذكاء الاصطناعي، رغم فوائده المحتملة، هو تكنولوجيا مزدوجة الاستخدام بطبيعتها؛ أي أنها قد تُوظف في خدمة الخير كما قد تُستغل لتحقيق أهداف مدمرة. فهو يصف AGI بأنه سيكون تقنية "لا يمكن تصور مدى قوتها"، مما يفتح المجال أمام إمكانية إعادة توجيهها من قبل جهات خبيثة — سواء كانوا أفرادًا أو حكومات مارقة — نحو أغراض تدميرية.
وتكمن الصعوبة الكبرى، كما يراها هاسابيس، في إيجاد التوازن بين السماح للفاعلين الإيجابيين بالوصول إلى هذه التقنيات لتطوير علاجات وإنجازات علمية، وبين منع الفاعلين السلبيين من استخدامها لأغراض ضارة. هذه المعضلة الأخلاقية والعملية، بحسب وصفه، ليست بسيطة، بل تمثل تحديًا وجوديًا للبشرية بأسرها.
ويضيف هاسابيس أن الخطر لا يكمن فقط في الاستخدام السيئ للتكنولوجيا، بل أيضًا في الطبيعة الذاتية المتطورة للأنظمة الذكية . مع مرور الوقت، ستصبح أنظمة الذكاء الاصطناعي أكثر استقلالية ووكالة، مما يجعل مسألة السيطرة عليها وفهم سلوكها أكثر صعوبة.
إن ضمان وضع حواجز أمان تحافظ على تحكم الإنسان بهذه الأنظمة، حتى مع ازدياد قدراتها على التعلم والتحسين الذاتي، هو مهمة معقدة للغاية، وتتطلب foresight علمي وأخلاقي من الطراز الرفيع. فإذا لم تتم إدارة هذه المرحلة بحذر شديد، فقد نجد أنفسنا أمام أنظمة تتخذ قرارات بمعزل عن التوجيه البشري، وهو سيناريو يفتح أبوابًا مخيفة لتداعيات لا يمكن احتواؤها.
الحاجة لتعاون دولي عاجل
إدراكًا لطبيعة الخطر العابرة للحدود، يرى هاسابيس أن التعاون الدولي لم يعد خيارًا، بل ضرورة حتمية. فالأنظمة الذكية، سواء طُوّرت في الغرب أو في أماكن أخرى، يمكن أن تُوزع عالميًا، لتؤثر على كل ركن من أركان الكوكب.
لهذا يدعو إلى وضع معايير دولية موحدة لكيفية تطوير واستخدام ونشر تقنيات AGI، بحيث يتم تصميم هذه الأنظمة بأهداف ومسارات واضحة ومُراقبة دوليًا منذ البداية.
ويدرك هاسابيس أن جزءًا من المخاوف المتعلقة بالذكاء الاصطناعي يتجاوز الاستخدامات العسكرية إلى طبيعة الأنظمة نفسها.
في نقاشات مجتمع أبحاث سلامة الذكاء الاصطناعي، تدور تساؤلات حادة حول احتمالية أن تسعى الأنظمة إلى السلطة، أو أن تصبح مراوغة، أو أن تحاول تقويض السيطرة البشرية.
رغم وجود علماء بارزين على جانبي النقاش — بين من يقللون من هذه المخاطر ومن يضخمونها — إلا أن هاسابيس يتبنى مقاربة حذرة.
فهو يرى أن المعرفة الحالية غير كافية لتحديد حجم المخاطر بدقة ، ويصر على أن أفضل طريق هو مواصلة البحث بحذر ورؤية استراتيجية قبل أن يصبح الأوان قد فات.
الخصوصية ومشروع "أسترا"
في سياق تطوير مساعدين رقميين دائمين عبر مشروع "Astra"، يعترف هاسابيس بوجود تحديات خصوصية عميقة. فحتى تكون المساعدات الرقمية مفيدة حقًا، يجب أن تحصل على حق الوصول إلى بيانات شخصية واسعة النطاق، مما يثير مخاوف من أن تتحول هذه الأنظمة إلى أدوات مراقبة.
يؤكد هاسابيس أن فلسفة DeepMind تركز على أن تكون هذه الأنظمة خاضعة تمامًا لإرادة المستخدم ، مع ضمان أعلى معايير التشفير والخصوصية، واستخدام الحوسبة الطرفية لتقليل الاعتماد على مراكز البيانات المركزية.
نحو عصر الوفرة الراديكالية
في رؤيته الأبعد مدى، يتحدث هاسابيس عن مفهوم "الوفرة الراديكالية"، وهو عالم تزول فيه الندرة بفضل اختراقات تكنولوجية كبرى في مجالات الطاقة والمياه والموارد الطبيعية.
فإذا تمكنت البشرية من تسخير الذكاء الاصطناعي لحل معضلات مثل الاندماج النووي، والبطاريات المثالية، وتحلية المياه بكفاءة، فإن قواعد الاقتصاد العالمي القائمة على الندرة ستنهار، مما يفتح المجال لعصر جديد من الازدهار.
لكن هاسابيس لا يغفل أن إزالة شح الموارد لن تقضي تلقائيًا على عدم المساواة؛ فالرغبة البشرية في السلطة ستظل قائمة، مما يستدعي تطوير فلسفة سياسية جديدة تناسب هذا العصر.
الديمقراطية بعد AGI: هل نحتاج إلى نظام جديد؟
ينهي هاسابيس تأملاته بتساؤل عميق: إذا أفضى العصر الصناعي إلى الديمقراطية عبر تمكين العمال من التفاوض على حقوقهم، فماذا سيحدث في عصر يفقد فيه البشر قدرتهم التفاوضية أمام ذكاء اصطناعي خارق؟
ربما، كما يقترح، نحتاج إلى تطور سياسي جديد يتجاوز الديمقراطية التقليدية نحو نظام سياسي أكثر ملاءمة لواقع الوفرة وعدم الندرة.
الأمن القومي والذكاء الاصطناعي: حدود غير واضحة
مع تزايد الاعتماد العسكري على تقنيات الذكاء الاصطناعي، تصبح الحدود بين الابتكار المدني والتوظيف العسكري أكثر غموضًا.
DeepMind التي كانت رمزًا للبحث العلمي الخالص، أصبحت اليوم جزءًا من بنية الأمن القومي في الغرب.
هذا التحول يطرح أسئلة عميقة:هل يمكن فصل العلم عن الجيوش في عصر الذكاء الاصطناعي؟ وهل يستطيع الباحثون الحفاظ على استقلاليتهم وسط تصاعد الضغوط السياسية والأمنية؟
هاسابيس نفسه لا يخفي قلقه، لكنه يعتبر أن التعاون مع الحكومات "شر لا بد منه" لضمان ألا تقع أقوى أدوات العصر الحديث في الأيدي الخطأ.
فبين الأحلام الكبرى والمخاطر الوجودية، يقف الذكاء الاصطناعي اليوم عند مفترق طرق خطير. ومع دخول تقنياته إلى المعادلة العسكرية العالمية، تتضاعف الحاجة إلى حكمة ورؤية تتجاوز المصالح القومية الضيقة.
ويؤكد هاسابيس أن التحدي الحقيقي لا يكمن فقط في بناء أنظمة ذكية، بل في بناء عالم أكثر ذكاءً في كيفية استخدام هذه الأنظمة.
الغد
1 - |
ترحب "سرايا" بتعليقاتكم الإيجابية في هذه الزاوية ، ونتمنى أن تبتعد تعليقاتكم الكريمة عن الشخصنة لتحقيق الهدف منها وهو التفاعل الهادف مع ما يتم نشره في زاويتكم هذه.
|
27-04-2025 04:09 PM
سرايا |
لا يوجد تعليقات |