فلوريدا.. المدعي العام يسعى لمحاسبة مطوري الذكاء الاصطناعي قانونيًا

spot_img

مدعي عام فلوريدا يؤسس لإمكانية مقاضاة مطوري الذكاء الاصطناعي

في خطوة غير مسبوقة، يتجه المدعي العام في فلوريدا نحو دراسة إمكانية توجيه اتهامات لمطوري تكنولوجيا الذكاء الاصطناعي، وذلك في أعقاب حادثة إطلاق نار مؤلمة داخل جامعة ولاية فلوريدا. الاستنتاجات الأولية تشير إلى أن الطالب فينيكس آيكنر، الذي ارتكب الهجوم، كان قد تواصل مع روبوت الدردشة “تشات جي بي تي” للحصول على نصائح حول الهجوم.

حادثة الجامعة وتفاصيلها

في أبريل 2025، أقدم فينيكس آيكنر على إطلاق النار داخل الحرم الجامعي، مما أسفر عن مقتل شخصين وإصابة 6 آخرين. المعلومات المستخلصة من مكتب المدعي العام تكشف أن آيكنر تبادل الحوار مع “تشات جي بي تي” بشأن تقرير عن الأسلحة المناسبة، وأفضل الأوقات لتنفيذ الهجوم، مما يرفع التساؤلات حول مسؤولية المطورين.

فتح تحقيق جنائي

أعلن المدعي العام، جيمس أوثماير، بدء تحقيق جنائي شاملاً في القضية، مع إمكانية توجيه اتهامات ضد شركة “أوبن إيه آي”، المطورة لتكنولوجيا “تشات جي بي تي”، أو بعض موظفيها. ورغم أن القانون الأمريكي يتيح ملاحقة الشركات، إلا أن ذلك لا يحدث بشكل متكرر.

سابقات قانونية

في الفترة الأخيرة، تم توجيه أحكام ضد شركات مثل “بوردو فارما” و”فولكسفاغن” بسبب دورها في قضايا مشابهة. وعندما يتعلق الأمر بالذكاء الاصطناعي، تدور النقاشات حول احتمالية اتهام المطورين بالإهمال أو الاستهتار بشأن المخاطر المرتبطة باستخدام تكنولوجيا الذكاء الاصطناعي.

وجهات نظر قانونية

يرى ماثيو توكسن، أستاذ القانون بجامعة يوتا، أن الأدلة الداخلية قد تكون أساسية لتحديد مسؤولية المطورين، مضيفًا أن المطالبات القانونية تستوجب إثبات انعدام الحذر من جانب مطوري التكنولوجيات. وأوضح أن الثقل الأكبر يقع على كاهل المدعي لإثبات ارتباط “تشات جي بي تي” بالجرائم المزعومة.

ردود فعل شركة أوبن إيه آي

من جهتها، نفت شركة “أوبن إيه آي” أي مسؤولية عن الحادث، مشددةً على أنها تعمل على تعزيز تدابير الحماية لرصد السلوكيات الخطيرة والتعامل معها بفاعلية. في القانون، يعود أي شك للمدعى عليه، مما يزيد من تحديات الإثبات في هذه القضية.

احتمالات الملاحقات المدنية

بجانب الأبعاد الجنائية، قد يكون للإجراءات المدنية آثار أوسع. حيث تم بالفعل إطلاق ملاحقات ضد شركات الذكاء الاصطناعي في الولايات المتحدة بسبب حالات انتحار، لكن لم تؤد أي من تلك القضايا لإدانة رسمية حتى الآن.

تحديات المستقبل لضوابط الذكاء الاصطناعي

وفي ظل هذه التطورات، دعا الخبراء مثل براندن غاريت إلى وضع قواعد تنظيمية واضحة لحماية المجتمع من مخاطر الذكاء الاصطناعي، مؤكدين أن العقوبات الجنائية لا يمكن أن تحل مكان نظام الضوابط اللازمة.

اقرأ أيضا

اشترك في النشرة الإخبارية

اخترنا لك