الذكاء الاصطناعي… مدمّر على المستوى البعيد

حسناء بو حرفوش

ما هي مخاطر الذكاء الاصطناعي وكيف يمكن مجابهتها؟ الإجابة في مقال ليان براونر الدكتور والباحث في الذكاء الاصطناعي في جامعة “أكسفورد” وآلان تشان الدكتور والباحث في معهد بحثي كندي، في موقع “تايم” الالكتروني.

ووفقاً للخبيرين، “وقع أكثر من 100 من الأساتذة المختصين في الذكاء الاصطناعي والعلماء من مجالات أخرى والمديرين التنفيذيين في أيار الماضي، على بيان يحذر من الخطر المدمر للذكاء الاصطناعي ويدعو الى علاجه كأولوية لا تقل خطورة عن الأوبئة والأسلحة النووية. وربط العديد من الباحثين الموقعين سبب قلقهم بعدم القدرة على التحكم بأنظمة الذكاء الاصطناعي خلال هذا العقد أو العقد التالي. ويطرح الذكاء الاصطناعي العديد من المشكلات، بحيث قد تدعم أنظمته انتهاكات حقوق الانسان وتطيل التمييز المنهجي وترسخ الاختلالات في ميزان القوى.

الأسباب الجذرية لضرر الذكاء الاصطناعي

وينجم العديد من الأضرار الجذرية عن الذكاء الاصطناعي، ومنها أننا لا نعرف كيف نصمم أنظمة ذكاء اصطناعي تتصرف بصورة موثوقة تماماً، وسبب آخر هو الضغوط التنافسية والمساءلة المحدودة. أضف إلى ذلك أن غالباً ما يكون هناك حافز اقتصادي قوي لنشر أنظمة الذكاء الاصطناعي من دون فحوص سلامة كافية. على سبيل المثال، سارعت Microsoft إلى إصدار Bing chatbot، ما أدى إلى تهديد chatbot.

وفي حال عدم إتخاذ إجراء حاسم لمعالجة هذه الأسباب الجذرية، ستتسع رقعة التأثير الخطير لأنظمة الذكاء الاصطناعي، التي يعتقد العديد من الخبراء أنها مستقبلاً قد تتفوق على البشر في المهارات الإدراكية الحاسمة، مثل الإقناع الاجتماعي والتخطيط وتطوير تقنيات جديدة. ومثلما مكنت هذه القدرات المعرفية البشرية من التحكم في مصير الأنواع الأخرى، قد تمكن المهارات نفسها أنظمة الذكاء الاصطناعي من التفوق علينا. ونظراً الى المنافسة والمساءلة المحدودة، سيكون هناك ضغط على المنظمات لاستبدال العمالة البشرية باهظة الثمن بأنظمة الذكاء الاصطناعي. كما تشجع القوى الاقتصادية النشر السريع لهذه الأنظمة الجديدة (على حساب اختبار السلامة)، ويمكن لأنظمة الذكاء الاصطناعي التحكم بصورة متزايدة في القدرات الإنتاجية والإدارية والعسكرية الرئيسة لمجتمعنا. بحلول ذلك الوقت، يجب أن نكون قد توصلنا إلى كيفية تصميم أنظمة تتصرف دائماً وبصدق كما نرغب، وإلا سنجد أنفسنا أمام أهداف تتعارض مع الانسانية وقد تؤدي إلى تهميش الانسان.

وتضخ الشركات المزيد من الأموال والمواهب في تطوير الذكاء الاصطناعي وبعد رؤية التقدم السريع على مدى السنوات الخمس الماضية، يتوقع جيفري هينتون، الأب المؤسس للذكاء الاصطناعي الحديث، الآن أن الذكاء الاصطناعي يمكن أن يتفوق على نطاق واسع على القدرات المعرفية البشرية – مثل الإقناع والتخطيط والتفكير العلمي – في غضون خمس إلى 20 عاماً. ولكن حتى لو كنا على بعد عقدين من الابتعاد عن أنظمة الذكاء الاصطناعي الأكثر ذكاءً من البشر فهذا ليس وقتاً طويلاً لإنشاء هياكل الحوكمة العالمية المعقدة اللازمة لهذه التكنولوجيا.

4 مجالات تدخل ممكنة

يمكن أن يعالج العديد من التدخلات جذور المشكلات. أولاً، ليس للجمهور حالياً رأي يذكر حول النماذج الموجودة. وتقرر الشركات الخاصة المخاطر المقبولة، بحيث إنها تتمتع بحرية التحكم في قوة الحوسبة والبيانات. بالتالي، من شأن الإشراف الديموقراطي الأقوى على إمداد قوة الحوسبة والبيانات أن يعزز الرقابة العامة وعلى سبيل المثال، يمكن للحكومات أن تراقب متى يتم استخدام كميات كبيرة من الطاقة الحاسوبية ولأي غرض.

ثانياً، يمكن إرساء نظام تدقيق قوي بحيث تقوم أطراف ثالثة مستقلة بفحص ممارسات وعمليات تطوير مختبرات الذكاء الاصطناعي للتقليل من المخاطر عموماً.

ثالثاً، يجب فرض إشراف بشري هادف على قرارات الذكاء الاصطناعي الحاسمة وتجنب حالات الاستخدام شديدة الخطورة مثل الأسلحة الفتاكة ذاتية التشغيل.

رابعاً، يجب إعادة التوازن إلى التمويل الموجه إلى أنظمة الذكاء الاصطناعي وحث الشركات على الإنفاق بصورة أقل على جعلها أكثر ذكاءً وزيادة التمويل المكرّس للأمان والشفافية ودراسة الآثار الاجتماعية. وفي حين أن من الجيد أن تقوم مختبرات الصناعة بتمويل مثل هذه الأبحاث، يبقى هذا التمويل عرضة للتغيير والمطلوب المزيد من التمويل العام للمجموعات غير الصناعية. ويشكل تطوير أنظمة الذكاء الاصطناعي القوية مخاطر مجتمعية واسعة النطاق بصورة متزايدة، ما يستدعي تضافر الجهود لضمان المصلحة المشتركة والتأكد من تطوير الذكاء الاصطناعي بطريقة عادلة ومفيدة”.

شارك المقال