دراسة: خُمس توصيات الذكاء الاصطناعي الطبية قد تهدد حياتك
كشفت دراسة حديثة أن خُمس التوصيات العلاجية التي يقدمها الذكاء الاصطناعي قد تحتوي على أخطار سريرية محتملة.
الدراسة المنشورة في 2 يناير/كانون الثاني الجاري على منصة "أرخايف" أعدها فريق بحثي من ستانفورد وهارفارد، وحذرت من الاعتماد الكامل على نماذج الذكاء الاصطناعي الطبية دون إشراف دقيق من الأطباء، مؤكدة أن هذه الأخطاء ليست بسبب ضعف التكنولوجيا، بل لغياب ضوابط السلامة الصارمة التي تضمن تقديم توصيات آمنة للمرضى.

واعتمد الباحثون على تقييم 31 نموذجاً متقدماً عبر 100 حالة سريرية حقيقية، بهدف قياس احتمال إلحاق الضرر بالمريض إذا استُخدمت التوصيات بشكل مباشر.
وكانت النتيجة صادمة، فنحو 22% من التوصيات حملت مخاطر سريرية محتملة، كما فشلت بعض النماذج في اقتراح فحوص أو إجراءات تشخيصية حاسمة، ما قد يؤدي إلى مضاعفات خطيرة تُلاحظ متأخرة.
وأظهرت الدراسة أن الأداء العالي في اختبارات الذكاء لا يضمن السلامة السريرية، إذ يفتقد الذكاء الاصطناعي ما سماه الباحثون بـ"القلق الطبي"، أي الإدراك الأخلاقي والمسؤولية عن نتائج القرار الطبي.
وأكدت الدراسة أن الذكاء الاصطناعي أداة دعم فعالة للأطباء، لكنها لا يمكن أن تحل محل الإنسان في اتخاذ القرار الطبي، خصوصاً فيما يتعلق بتقدير المخاطر الفردية والمسؤولية الأخلاقية والقانونية.

وأشار الباحثون إلى أن الحل يكمن في مراجعة بشرية دقيقة لكل توصية، وتطبيق معايير سلامة سريرية واضحة قبل استخدام أي نظام ذكاء اصطناعي في العلاج الطبي، لضمان أن يدعم الأطباء بدلا من أن يحل محلهم.
وتعد هذه الدراسة تحذيرا صارما للمستشفيات والمطورين والهيئات التنظيمية، مشددة على أن السلامة يجب أن تكون المعيار الأول في دمج الذكاء الاصطناعي في الرعاية الصحية.
aXA6IDIxNi43My4yMTYuNTYg جزيرة ام اند امز