تسلط OpenAI الضوء على عائلة تستخدم ChatGPT لاتخاذ قرارات علاج السرطان، لكن الدراسات الحديثة تظهر أن أدوات الصحة القائمة على الذكاء الاصطناعي لديها مشكلات كبيرة في الدقة والسلامة. (اقرأتسلط OpenAI الضوء على عائلة تستخدم ChatGPT لاتخاذ قرارات علاج السرطان، لكن الدراسات الحديثة تظهر أن أدوات الصحة القائمة على الذكاء الاصطناعي لديها مشكلات كبيرة في الدقة والسلامة. (اقرأ

تروج OpenAI لـ ChatGPT لاتخاذ القرارات الصحية وسط مخاوف تتعلق بالدقة

2026/03/05 09:21
3 دقيقة قراءة
للحصول على ملاحظات أو استفسارات بشأن هذا المحتوى، يرجى التواصل معنا على crypto.news@mexc.com

OpenAI تروج لـ ChatGPT لاتخاذ القرارات الصحية وسط مخاوف بشأن الدقة

Terrill Dicki 05 مارس، 2026 01:21

تسلط OpenAI الضوء على عائلة تستخدم ChatGPT لاتخاذ قرارات علاج السرطان، لكن الدراسات الحديثة تظهر أن أدوات الصحة القائمة على الذكاء الاصطناعي لديها مشكلات كبيرة في الدقة والسلامة.

OpenAI تروج لـ ChatGPT لاتخاذ القرارات الصحية وسط مخاوف بشأن الدقة

نشرت OpenAI دراسة حالة هذا الأسبوع تضم عائلة استخدمت ChatGPT للاستعداد لقرارات علاج السرطان لابنها، مما يضع روبوت الدردشة القائم على الذكاء الاصطناعي كمكمل لتوجيهات الطبيب. التوقيت يثير الدهشة نظرًا للأدلة المتزايدة على أن أدوات الصحة القائمة على الذكاء الاصطناعي تحمل مشكلات موثوقية كبيرة.

المادة الترويجية، التي صدرت في 4 مارس، تصف كيف استفاد الوالدان من ChatGPT جنبًا إلى جنب مع فريق الأورام الخاص بطفلهما. تصور OpenAI هذا على أنه استخدام مسؤول للذكاء الاصطناعي - مكمل بدلاً من استبدال الخبرة الطبية.

لكن السرد الوردي يصطدم بنتائج بحثية مزعجة. وجدت دراسة نُشرت في Nature Medicine تفحص منتج "ChatGPT Health" الخاص بـ OpenAI مشكلات كبيرة في الدقة وبروتوكولات السلامة والتحيز العرقي في التوصيات الطبية. هذا ليس تحذيرًا بسيطًا لأداة قد يستخدمها الناس عند اتخاذ قرارات حياة أو موت بشأن علاج السرطان.

مشكلة الدقة

ترسم الأبحاث المستقلة صورة مختلطة في أحسن الأحوال. وجدت دراسة Mass General Brigham أن ChatGPT حقق دقة تقارب 72% عبر التخصصات الطبية، لترتفع إلى 77% للتشخيصات النهائية. يبدو لائقًا حتى تفكر فيما هو على المحك - هل ستركب طائرة مع احتمال 23% أن يرتكب الطيار خطأً حرجًا؟

قدمت شركة الذكاء الاصطناعي للرعاية الصحية Atropos أرقامًا أكثر قتامة: نماذج اللغة الكبيرة ذات الأغراض العامة توفر معلومات ذات صلة سريرية فقط من 2% إلى 10% من الوقت للأطباء. الفجوة بين "مفيد أحيانًا" و "موثوق بما يكفي لقرارات السرطان" تظل شاسعة.

لم تتلطف الجمعية الطبية الأمريكية في كلماتها. توصي المنظمة بعدم استخدام الأطباء لأدوات قائمة على نماذج اللغة الكبيرة للمساعدة في اتخاذ القرارات السريرية، مشيرة إلى مخاوف الدقة وغياب المبادئ التوجيهية الموحدة. عندما تخبر الجمعية الطبية الأمريكية الأطباء بالابتعاد، ربما ينبغي على المرضى أخذ العلم.

ما لا يستطيع ChatGPT فعله

لا يمكن لروبوتات الدردشة القائمة على الذكاء الاصطناعي إجراء فحوصات جسدية. لا يمكنهم قراءة لغة جسد المريض أو طرح أسئلة متابعة بديهية يطورها أطباء الأورام ذوو الخبرة على مدى عقود. يمكنهم الهلوسة - توليد معلومات تبدو واثقة لكنها مختلقة تمامًا.

تضيف مخاوف الخصوصية طبقة أخرى. كل عرَض، كل خوف، كل تفاصيل حول سرطان الطفل يتم كتابتها في ChatGPT تصبح بيانات لدى المستخدمين سيطرة محدودة عليها.

تؤكد دراسة حالة OpenAI أن العائلة عملت "جنبًا إلى جنب مع التوجيه المتخصص من الأطباء". هذا التأهيل مهم. الخطر ليس المرضى المطلعين الذين يطرحون أسئلة أفضل - بل الأشخاص الضعفاء في أزمة قد يعتمدون بشكل مفرط على أداة تخطئ أكثر مما يوحي التسويق.

بالنسبة لمستثمري الكريبتو الذين يراقبون طموحات OpenAI المؤسسية، تشير دفعة الرعاية الصحية إلى توسع عدواني في قطاعات عالية المخاطر. ما إذا كان المنظمون سيتسامحون مع شركات الذكاء الاصطناعي التي تروج لأدوات اتخاذ القرارات الطبية مع مشكلات دقة موثقة يظل سؤالًا مفتوحًا مع التوجه إلى 2026.

مصدر الصورة: Shutterstock
  • openai
  • chatgpt
  • الرعاية الصحية بالذكاء الاصطناعي
  • الذكاء الاصطناعي الطبي
  • تكنولوجيا الصحة
إخلاء مسؤولية: المقالات المُعاد نشرها على هذا الموقع مستقاة من منصات عامة، وهي مُقدمة لأغراض إعلامية فقط. لا تُظهِر بالضرورة آراء MEXC. جميع الحقوق محفوظة لمؤلفيها الأصليين. إذا كنت تعتقد أن أي محتوى ينتهك حقوق جهات خارجية، يُرجى التواصل عبر البريد الإلكتروني crypto.news@mexc.com لإزالته. لا تقدم MEXC أي ضمانات بشأن دقة المحتوى أو اكتماله أو حداثته، وليست مسؤولة عن أي إجراءات تُتخذ بناءً على المعلومات المُقدمة. لا يُمثل المحتوى نصيحة مالية أو قانونية أو مهنية أخرى، ولا يُعتبر توصية أو تأييدًا من MEXC.