باحثون وخبراء: الذكاء الاصطناعي قد يتجاوز قدرات الإنسان قريبًا

أفادت وكالة “الصحافة الفرنسية” أن عشرات الباحثين والمديرين التنفيذيين في قطاع الذكاء الاصطناعي أصدروا نداءً مشتركًا يدعو إلى وضع إطار تنظيمي دولي يفرض قيودًا على استخدام هذه التقنية، للحؤول دون آثار سلبية محتملة على البشرية.

وأشار الموقّعون، تزامنًا مع افتتاح الجمعية العامة للأمم المتحدة في نيويورك، إلى أن “الذكاء الاصطناعي يحمل إمكانات هائلة لرفاه الإنسان، لكن مساره الحالي يمثل مخاطر غير مسبوقة”، داعين إلى التوصل إلى “اتفاقات دولية بشأن الخطوط الحمراء للذكاء الاصطناعي”، تُفرض على الجهات الرئيسية المطوّرة له.

وأوضح البيان أن المطلوب “ضمانات بالحد الأدنى”، تشكّل أرضية مشتركة بين الحكومات لاحتواء المخاطر الأكثر إلحاحًا، مثل الأوبئة، انتشار المعلومات المضللة، مشاكل الأمن القومي، البطالة الجماعية، وانتهاكات حقوق الإنسان.

وتقف وراء هذه المبادرة جهات عدة، أبرزها المركز الفرنسي للأمان في الذكاء الاصطناعي، وذي فيوتشر سوسايتي، ومركز الذكاء الاصطناعي المتوافق مع الإنسان في جامعة بيركلي، إضافة إلى ٢٠ منظمة شريكة.

وشملت قائمة الموقّعين شخصيات بارزة في هذا المجال، من بينها كبير مسؤولي الأمن المعلوماتي في شركة “أنثروبيك” جيسون كلينتون وعدد من زملائه، إضافة إلى موظفين في “ديب مايند” التابعة لمجموعة غوغل، و**”أوبن إيه آي”** المطوّرة لـ “تشات جي بي تي”. كما ضمت القائمة الحائز جائزة نوبل في الفيزياء لعام ٢٠٢٤ جيفري هينتون، أحد رواد الذكاء الاصطناعي الحديث، إلى جانب البروفيسور في جامعة مونتريال يوشوا بينجيو، أحد أبرز الشخصيات المؤثرة في هذا القطاع.

ويحذّر الخبراء من أن تطوير “الذكاء الاصطناعي العام” الذي يعادل القدرات الفكرية البشرية، و”الذكاء الخارق” الذي يتجاوزها، قد يقلب الموازين عالميًا. وذكّر الموقّعون بأن اتفاقات دولية سابقة وُقِّعت لتنظيم تقنيات خطرة، مثل معاهدة عدم انتشار الأسلحة النووية (١٩٧٠) وبروتوكول جنيف (١٩٢٥) لحظر الأسلحة الكيميائية، الذي وُسِّع لاحقًا عبر اتفاقية الأسلحة الكيميائية (١٩٩٧).

زر الذهاب إلى الأعلى