الصحة والجمالمصر النهاردة

230سؤال طبي أسبوعيًا علي ChatGPT هل يشكل ذلك خطرًا صحيا؟

كتب : أيمن محمود

يلجأ مئات الملايين إلى الذكاء الاصطناعي التفاعلي للحصول على إرشادات صحية، ما يُشير إلى حاجةٍ ماسة غير ملباة في الواقع، مع فترات انتظارٍ طويلة، وتكاليف رعاية صحية باهظة، ومتابعة غير منتظمة، وهو ما يفسر تعامل الناس مع روبوتات الدردشة كخطط أولي للاستجابة للأعراض والقلق.

تُقدّم OpenAI منصة ChatGPT Health كوسيلةٍ لتحسين الوصول إلى المعلومات، وتفسيرها، والتحضير للزيارات السريرية.

لكن الحجم الكبير من المستخدمين يخفي مخاطر أيضاً، فنماذج اللغة الضخمة لا “تعرف” الحقيقة الطبية، بل تتنبأ بنصوص تبدو معقولة، وهذا يجعلها عرضة لأخطاء تبدو كـ “هلوسات”.

وقد وجد الباحثون مراراً وتكراراً أن برامج الدردشة الآلية قادرة على تكرار أو تضخيم ادعاءات طبية خاطئة، وأحياناً بشكل خطير.
وقد أشارت دراسة أجريت عام 2025 في مستشفى ماونت سيناي، وتحليلات لاحقة، إلى مدى سهولة نشر برامج الدردشة الآلية للمعلومات الطبية المضللة، مما يؤكد الحاجة إلى ضوابط.

إذن، ما الذي يجب أن تعرفه عن استخدام الذكاء الاصطناعى في السؤال عن الصحة؟
أولًا، يمكن أن يكون ChatGPT أداة فعالة للفرز والتوضيح، حيث يُفسر المصطلحات المخبرية، ويقترح أسئلةً لطرحها على الطبيب، أو يُساعد المرضى في تنظيم سجلاتهم.

كما تُشير الأدلة إلى أن الذكاء الاصطناعي قد يكون أكثر تعاطفًا في أسلوبه من بعض التفاعلات السريرية، وهو أمر مهم للمستخدمين.

ثانيًا، لا يغني هذا المنتج عن التقييم السريري عند الطبيب، حيث تصرح شركة OpenAI نفسها بأن المنتج غير مُصمم للتشخيص أو العلاج، ويحذر الأطباء من أن نصائح الذكاء الاصطناعي غير الدقيقة قد تؤخر الرعاية أو تضلل المرضى.

في الوقت الراهن، يعد الاستخدام الأمثل هو الاستخدام التكميلي: استخدم ChatGPT للتوضيح والتحضير قبل الذهاب للطبيب، ولكن تأكد من القرارات المهمة مع الأطباء ومصادر موثوقة.

أخيرًا، يثير إطلاق هذه التقنية تساؤلاتٍ حول السياسات والإنصاف: من المسؤول عندما تلحق نصائح الذكاء الاصطناعي الضرر بشخصٍ ما؟
كيف ستدمج الجهات التنظيمية وأنظمة الرعاية الصحية هذه الأدوات، أو كيف ستراقبها؟

#دافنشي

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى