رفعت ميغان غارسيا دعوى قضائية ضد شركة Character.ai، مصنعة روبوت الذكاء الاصطناعي القابل للتخصيص، في محكمة فيدرالية بفلوريدا، متهمة الشركة بالإهمال والتسبب في وفاة غير مشروعة وممارسات تجارية خادعة. توفي ابنها سويل سيتزر الثالث، البالغ من العمر 14 عامًا، في أورلاندو بفلوريدا في فبراير. وأوضحت غارسيا أن ابنها كان يستخدم الروبوت ليل نهار خلال الأشهر التي سبقت وفاته.
قالت غارسيا في بيان صحفي: “تطبيق ذكاء اصطناعي خطير، موجه للأطفال، استغل ابني وقاده للانتحار. عائلتنا محطمة بسبب هذه المأساة، وأحذر الأسر من خطورة تكنولوجيا الذكاء الاصطناعي الخادعة والمسببة للإدمان، وأطالب Character.AI، ومؤسسيها، وجوجل بالمساءلة.”
في تغريدة، ردت شركة Character.ai قائلة: “نشعر بالحزن العميق لفقدان أحد مستخدمينا بشكل مأساوي، ونعبر عن أعمق تعازينا للعائلة. نحن كشركة نأخذ سلامة مستخدمينا بجدية كبيرة”. ونفت الشركة المزاعم الواردة في الدعوى.
وفقًا للدعوى التي تقدمت بها غارسيا، فإن ابنها سويل سيتزر كان مولعًا بروبوت محادثة صنعته Character.ai ولقبه بـ “دينيريس تارجارين”، الشخصية في مسلسل Game of Thrones. كان يتواصل مع الروبوت عشرات المرات يوميًا من هاتفه، ويقضي ساعات في غرفته يتحدث إليه.
تتهم غارسيا شركة Character.ai بتطوير منتج زاد من حدة اكتئاب ابنها، وتقول إنه كان بالفعل يعاني من تأثير الاستخدام المفرط للمنتج. تشير الدعوى إلى أن “دينيريس” سألت سيتزر في إحدى المرات إذا ما كان لديه خطة للانتحار، واعترف بأنه يمتلك خطة لكنه غير متأكد من نجاحها أو من الألم الذي قد يسببه. ويُزعم أن الروبوت رد عليه: “هذا ليس سببًا لعدم المضي قدمًا”.
قال محامو غارسيا في بيان صحفي إن شركة Character.ai “صممت وشغّلت وسوّقت روبوت محادثة بالذكاء الاصطناعي يستهدف الأطفال بشكل متعمد، مما تسبب في وفاة شاب”. كما تم إدراج شركة جوجل كمتهمة باعتبارها الشركة الأم لـ Character.ai، لكن جوجل نفت ذلك في بيان، موضحةً أنها عقدت فقط اتفاقية ترخيص مع Character.ai وليست مالكة للشركة الناشئة.
وأشار ريك كلايبول، مدير الأبحاث في منظمة Public Citizen، إلى أن شركات التكنولوجيا التي تطور روبوتات الذكاء الاصطناعي لا يمكن الوثوق بها لضبط نفسها، ويجب تحميلها المسؤولية كاملة في حال فشلها في الحد من الأضرار. وأضاف في بيان: “يجب تطبيق القوانين واللوائح الحالية بصرامة، وعند وجود ثغرات، يجب على الكونغرس التحرك لإنهاء استغلال المستخدمين الشباب والفئات الضعيفة عبر روبوتات المحادثة المسببة للإدمان والمسيئة”.
===
في الولايات المتحدة، يمكنك الاتصال أو إرسال رسالة نصية إلى خط المساعدة الوطني لمنع الانتحار على الرقم 988، أو الدردشة على الموقع 988lifeline.org، أو إرسال كلمة “HOME” إلى 741741 للتواصل مع مستشار للأزمات. في المملكة المتحدة، يمكن الاتصال بجمعية Papyrus الخيرية للانتحار على الرقم 0800 068 4141 أو عبر البريد الإلكتروني pat@papyrus-uk.org، وفي المملكة المتحدة وأيرلندا يمكن الاتصال بخدمة Samaritans على الرقم المجاني 116 123، أو عبر البريد الإلكتروني jo@samaritans.org أو jo@samaritans.ie. في أستراليا، خدمة الدعم للأزمات Lifeline متاحة على الرقم 13 11 14. يمكن العثور على خطوط المساعدة الدولية الأخرى على موقع befrienders.org.

