منوعات

عندما يؤثر الذكاء الاصطناعي على الأرواح

الذكاء الاصطناعي يساعد القضاة وضباط الشرطة والأطباء.  ولكن ما الذي يوجه عملية صنع القرار؟

على الرغم من تغطيتنا السابقة لبعض القضايا الرئيسية مع الذكاء الاصطناعى في شكله الحالي ، لا يزال الناس يعهدون بأمور مهمة للغاية لمساعدي الروبوت. تساعد أنظمة التعلم الذاتي بالفعل القضاة والأطباء على اتخاذ القرارات ، ويمكنهم حتى التنبؤ بالجرائم التي لم ترتكب بعد. ومع ذلك ، غالبًا ما يكون مستخدمو هذه الأنظمة في الظلام حول كيفية توصل الأنظمة إلى الاستنتاجات.

مع كل الارتفاع ، بدأت المحكمة في الانطلاق

في محاكم الولايات المتحدة ، يتم نشر الذكاء الاصطناعي في القرارات المتعلقة بالحكم والإجراءات الوقائية والتخفيف . بعد دراسة البيانات ذات الصلة ، يفحص نظام الذكاء الاصطناعي ما إذا كان المشتبه فيه عرضة للنكوص ، ويمكن أن يحول القرار الاختبار إلى جملة حقيقية ، أو يؤدي إلى رفض الكفالة.

على سبيل المثال ، حُكم على المواطن الأمريكي إريك لوميس بالسجن ست سنوات لقيادته سيارة أطلق فيها راكب النار على مبنى. استند الحكم على خوارزمية COMPAS ، التي تقيم الخطر الذي يشكله الأفراد على المجتمع. تم تزويد COMPAS بملف تعريف المدعى عليه وسجله في القانون ، وحدده على أنه “فرد معرض لخطر كبير على المجتمع”. طعن الدفاع في القرار على أساس أنه لم يتم الكشف عن طريقة عمل الخوارزمية ، مما يجعل من المستحيل تقييم نزاهة استنتاجاتها. ورفضت المحكمة هذه الحجة.

العرافين الإلكترونية: تنبؤات الجريمة المدعومة من منظمة العفو الدولية

لقد قطعت بعض مناطق الصين خطوة إلى الأمام ، باستخدام الذكاء الاصطناعى لتحديد المجرمين المحتملين . تراقب كاميرات التعرف على الوجه الجمهور وترفع تقارير إلى سلطات إنفاذ القانون إذا تعرّض شيء مشبوه للعيان. على سبيل المثال ، قد يقوم شخص يقوم بشراء كميات كبيرة من الأسمدة بإعداد هجوم إرهابي. يمكن إلقاء القبض على أي شخص مذنب من التصرف المشبوه أو إرساله إلى معسكر إعادة التأهيل.

يجري تطوير تكنولوجيا ما قبل الجريمة في بلدان أخرى أيضًا. تستخدم الشرطة في بعض أجزاء الولايات المتحدة وبريطانيا التكنولوجيا للتنبؤ بمكان وقوع الحادث التالي. يتم اعتبار العديد من العوامل: التاريخ الإجرامي للمنطقة ، وحالتها الاجتماعية والاقتصادية ، وحتى توقعات الطقس. ومن اللافت للنظر ، منذ انتشار الأدوات في مناطق شيكاغو ، أن جرائم الأسلحة هناك انخفضت بمقدار الثلث تقريبًا .

سوف يراك الكمبيوتر الآن

كما تستخدم التقنيات الجديدة على نطاق واسع في الرعاية الصحية. الأطباء الاصطناعي استشارة المرضى ، تجعل التشخيص ، وتحليل نتائج الفحص، و تساعد الجراحين أثناء العمليات .

يعد IBM Watson Health أحد أفضل أنظمة التعلم الذاتي المعروفة في مجال الرعاية الصحية . درب الأطباء منظمة العفو الدولية لتشخيص الأمراض ووصف العلاج. كان لدى Watson Health الكثير من ردود الفعل الإيجابية. في عام 2013 ، على سبيل المثال ، تم تحديد احتمالية قيام الحاسوب العملاق باختيار خطة العلاج المثالية بنسبة 90٪.

ومع ذلك ، في صيف عام 2018 ، تم الكشف عن أن بعض نصائح علاج السرطان في النظام كانت غير آمنة . على وجه الخصوص ، أوصى واتسون بإعطاء مريض السرطان المصاب بنزيف حاد دواء يمكن أن يسبب المزيد من فقدان الدم. لحسن الحظ ، كانت السيناريوهات افتراضية وليست حالات حقيقية.

من المؤكد أن الأطباء البشريين يرتكبون أخطاء أيضًا ، لكن عندما يتعلق الأمر بمنظمة العفو الدولية ، فإن خطوط المسؤولية غير واضحة. هل يواجه طبيب من اللحم والدم خطرًا على تناقض مع أحد الزملاء الرقميين الذين ابتكره منشئوه بمئات الآلاف من المقالات العلمية والكتب وتاريخ الحالات؟ وإذا لم يكن الأمر كذلك ، فهل يتحمل الطبيب أي عواقب سلبية؟

يجب أن تكون منظمة العفو الدولية شفافة

واحدة من المشاكل الرئيسية في استخدام الذكاء الاصطناعي لتحديد مصير البشرية هي أن الخوارزميات غالبًا ما تكون غامضة ، وأن تتبع سبب الأخطاء لمنع تكرارها ليس بالأمر السهل على الإطلاق. من وجهة نظر مطوري أنظمة التعلم الذاتي ، هذا أمر مفهوم: من يريد مشاركة المعرفة مع المنافسين المحتملين؟ ولكن عندما تكون حياة الناس على المحك ، هل يجب أن تأخذ الأسرار التجارية الأولوية؟

يحاول السياسيون في جميع أنحاء العالم السيطرة على منظمة العفو الدولية غير الشفافة . في الاتحاد الأوروبي ، “لموضوعات البيانات” لها الحق في معرفة على أي أساس يتم اتخاذ قرارات منظمة العفو الدولية التي تؤثر على مصالحهم. تسير اليابان في طريق مشابه ، لكن القانون المعني لا يزال قيد الدراسة.

بعض المطورين يفضلون الشفافية ، لكنهم ضعيفون على الأرض. إحداها هي شركة CivicScape للتكنولوجيا ، التي أصدرت في عام 2017 الكود المصدري لنظام الشرطة التنبؤية . لكن هذا هو الاستثناء وليس القاعدة.

الآن بعد أن خرج جني الذكاء الاصطناعي من الزجاجة ، هناك فرصة ضئيلة للجنس البشري لإعادته. وهذا يعني إلى أن تصبح القرارات المستندة إلى الذكاء الاصطناعي عادلة ودقيقة ، يجب أن يعتمد استخدام الذكاء الاصطناعي على قوانين جيدة الإعداد وكفاءة كل من المبدعين ومستخدمي أنظمة التعلم الذاتي.

زر الذهاب إلى الأعلى
إغلاق