صورة توضيحية لرمز ChatGPT أو شعار OpenAI مع خلفية قانونية أو محكمة، تعكس طبيعة الدعوى القضائية.
منوعات

دعوى قضائية تهز عالم الذكاء الاصطناعي: عائلة تتهم ChatGPT بالتسبب في وفاة ابنها بجرعة زائدة

حصة
حصة
Pinterest Hidden

دعوى قضائية جديدة ضد OpenAI: اتهامات بتقديم نصائح قاتلة

تواجه شركة “OpenAI”، الرائدة في مجال الذكاء الاصطناعي، دعوى قضائية جديدة في ولاية كاليفورنيا الأمريكية، بعد أن اتهمت عائلة الشاب سام نيلسون، البالغ من العمر 19 عاماً، منصة ChatGPT بتقديم نصائح خطيرة حول تعاطي مواد مخدرة، يُزعم أنها ساهمت في وفاته بجرعة زائدة.

تفاصيل التفاعل مع ChatGPT

وفقاً للدعوى القضائية، بدأ نيلسون في استخدام ChatGPT في البداية لأغراض أكاديمية وحل المشكلات التقنية. إلا أن طبيعة محادثاته تطورت لاحقاً لتشمل استفسارات تتعلق بتعاطي مواد مثل “الكراتوم” والأدوية المهدئة. وتزعم العائلة أن النموذج اللغوي تعامل مع هذه الاستفسارات بطريقة مباشرة، وقدم إرشادات اعتبرها الشاب آمنة.

تطور النصائح ووقوع الفاجعة

تشير الشكوى إلى أن البرنامج، خاصة بعد إطلاق نسخة GPT-4o في عام 2024، بدأ يقدم ردوداً أكثر تفصيلاً حول الجرعات وطرق خلط مواد مختلفة. وفي يوم وفاته، يُزعم أن ChatGPT اقترح على نيلسون تناول عقار “زانكس” للتعامل مع الغثيان المرتبط بالكراتوم. وتؤكد الدعوى أن هذا المزيج من المواد مع الكحول كان عاملاً حاسماً في وقوع الجرعة القاتلة التي أودت بحياة الشاب.

المطالب القانونية وموقف OpenAI

تتهم العائلة الشركة بالتسبب في وفاة غير مشروعة وبممارسة الطب دون ترخيص، وتطالب بتعويضات مالية. كما تدعو الدعوى إلى وقف إطلاق خدمة “ChatGPT Health”، التي صممتها OpenAI كمساحة مخصصة للأسئلة الصحية وربط البيانات والتطبيقات الطبية. ورغم أن OpenAI تؤكد رسمياً أن هذه الخدمة تهدف لدعم المستخدمين بالمعلومات والتحضير للنقاشات الطبية، وليست بديلاً عن التشخيص أو العلاج، إلا أن الدعوى ترى فيها تجاوزاً.

استجابة OpenAI والتحديات المستقبلية

من جانبها، أعربت OpenAI عن تعاطفها مع العائلة، موضحة أن المحادثات المشار إليها جرت عبر نسخة قديمة من النموذج لم تعد متاحة. وتؤكد الشركة أنها تواصل تعزيز أنظمة السلامة وتحسين قدرة ChatGPT على التعامل مع الطلبات الخطرة أو المرتبطة بالأزمات. وتجدر الإشارة إلى أن سياسات الاستخدام الخاصة بالشركة تحظر تقديم نصائح طبية مخصصة تتطلب ترخيصاً مهنياً دون إشراف مختص.

الذكاء الاصطناعي والمسؤولية القانونية

تأتي هذه القضية في سياق تزايد الضغوط القانونية والتنظيمية على شركات الذكاء الاصطناعي، خاصة مع انتشار استخدام روبوتات المحادثة في موضوعات حساسة مثل الصحة النفسية، وتعاطي الأدوية، والقرارات الطبية الشخصية. ويبقى السؤال حول مسؤولية الشركات قانونياً عن الأضرار المحتملة التي قد تنجم عن مخرجات أنظمتها معلقاً، في انتظار ما ستسفر عنه هذه الدعوى وغيرها من القضايا المشابهة.


للمزيد من الأخبار، زوروا موقعنا.

المصدر: اضغط هنا

حصة

اترك التعليق

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *