الذكاء الاصطناعي في الرعاية الصحية تجديد وتحديات

تؤكد عديد من الدراسات أن دمج تكنولوجيا الذكاء الاصطناعي في مجال الرعاية الصحية شكل ثورة كبرى، وجاء بمزايا غير مسبوقة؛ لكن استدامة ذلك وتطوره مرهونان بمواجهة مخاوف وتحديات، وهو ما ساهم بظهور تيارات بحثية تركز على دراسة ظاهرة مقاومة استخدام هذا النوع من الذكاء، وتبحث عن حلول وتدابير لمخاطبة آلياتها وأسبابها، كتلك المتعلقة بالجوانب الأخلاقية والمخاطر المحتملة.
بينت دراسة صينية لمجموعة من الباحثين أهمية تكنولوجيا الذكاء الاصطناعي في التصوير والتشخيص الطبي، حيث تُستخدم نماذج التعلم العميق للمساعدة في اكتشاف الأمراض وتشخيصها بالأشعة السينية والرنين المغناطيسي والأشعة المقطعية. وبمساعدتها يمكن تحديد العلامات المبكرة للسرطان وأمراض القلب والأوعية الدموية، والاضطرابات العصبية، وسواها، بدقة وبسرعة. وهذا إلى جانب دعم تحليل البيانات الجينية والديموغرافية ونمط الحياة لتقديم توصيات علاجية متفردة تناسب كل حالة.
هذا، ويفيد استخدام الذكاء الاصطناعي في علاج الأورام نظرًا لقدرته على التنبؤ باستجابة المريض للعلاجات المختلفة، ومن ثم صياغة خطط علاج أكثر فاعلية. كما تعد التحليلات التنبؤية وتقييم المخاطر مجالًا مهمًا آخر لأبحاث هذا الذكاء، حيث تُستخدم نماذجه للتنبؤ بنتائج المرضى، كاحتمالية تطور المرض، ومضاعفات الجراحات المتوقعة. وتمكن هذه التنبؤات مقدمي الرعاية الصحية من اتخاذ تدابير وقائية، وتعزيز جودة رعاية المرضى، وتقليل تكاليف العلاج والخدمات.
وعلى الصعيد الإداري، يمكن للذكاء الاصطناعي تحسين نظم السجلات الصحية الإلكترونية، وتبسيط المهام الإدارية، وتعزيز رعاية المرضى بالاستفادة المثلى من البيانات، وذلك باستخدام تكنولوجيا معالجة اللغة الطبيعية لاستخراج معلومات ذات معنى من البيانات الطبية غير المنظمة، كالسجلات السريرية، والمقالات البحثية.
الخصوصية والتمييز
من بين التحديات والمخاوف التي تواجه القطاع الصحي عند دمج تكنولوجيا الذكاء الاصطناعي - كما أشارت الدراسة -، قضايا أمن البيانات والخصوصية، حيث يتم تخزين كميات هائلة من المعلومات الشخصية والطبية الحساسة، ويمكن أن يؤدي قصور التشفير أو الإتاحة غير الملائمة إلى أضرار مادية ومعنوية جسيمة، تأتي من إساءة الاستخدام، ولاسيما مع غياب استراتيجيات حفظ البيانات وتدابير تجنب الاختراق أو التعامل معه إن حدث؛ مما يؤكد أهمية تأمين النظم والالتزام بالمتطلبات القانونية واللوائح المنظمة، وأهمية التأكد من أن جميع البيانات المستخدمة للتدريب ونشر نماذج التعلم العميق آمنة وتحمي خصوصية المرضى.
ولفتت الدراسة الانتباه إلى وجود احتمال للتحيز والتمييز في خوارزميات الذكاء الاصطناعي - الخطوات المنطقية لحل المشكلات وتحليل التكرارات - عندما تعكس البيانات المستخدمة للتدريب تحيزات جامعي البيانات أو تحيزات البيانات نفسها، مما يمكن أن يؤدي ذلك إلى قرارات تتخذها الخوارزميات تفضي لنتائج غير عادلة بالنسبة لأفراد أو مجموعات معينة. فعندما تكون نسبة فئة معينة من بيانات المرضى منخفضة، مثلًا، قد تتراجع دقة خوارزميات الذكاء الاصطناعي في تشخيص وعلاج مجموعات المرضى هذه.
وقد أوضحت إحدى الدراسات أن خوارزمية تشخيص سرطان الجلد كانت ممتازة فيما يتعلق بالمرضى من ذوي البشرة الفاتحة، لكن دقتها قلت بصورة ملحوظة بالنسبة للأشخاص من ذوي البشرة الداكنة. وأظهرت أبحاث أن التوازن بين الجنسين في مجموعات بيانات التصوير الطبي أمر مهم لتدريب نظم الذكاء الاصطناعي على التشخيص بمساعدة الحاسوب؛ ويؤدي الفشل في تحقيق هذا التوازن إلى انخفاض مستمر في الأداء التشخيصي للنوع الممثل تمثيلًا ناقصًا.
ولهذا، عند تطوير ونشر خوارزميات الذكاء الاصطناعي، لابد من تحديد هذه التحيزات والتخفيف منها باستخدام مجموعات بيانات متنوعة، ومراقبة أداء الخوارزميات بانتظام، واستخدام تقنيات تصحيح العدالة لضبط الخوارزميات وتقليل التحيزات. وعلى مقدمي الرعاية الصحية التمتع بدراية أكبر بالمصادر المحتملة للتحيز في البيانات والخوارزميات المستخدمة.
ومن جانب آخر، حذرت دراسات من بعض استجابات الذكاء الاصطناعي كالدراسة التي أجراها باحثون بكلية إدارة الأعمال بهارفارد، حللوا خلالها أكثر من عشرين ألف محادثة بين الإنسان والذكاء الاصطناعي في خمس تطبيقات، ووجدوا أن نسبة من المستخدمين قاموا بمناقشة أزمات خطيرة متعلقة بالصحة العقلية. وطلب الفريق البحثي من خبراء سريريين مدربين تصنيف الاستجابات، وتوصلوا إلى أن ربع الاستجابات التي يولدها الذكاء الاصطناعي زادت من احتمالية إيذاء المستخدمين لأنفسهم.
مقاومة التغيير
إلى جانب العواقب السلبية للتحيز واختراق البيانات، والاستجابات المؤذية، يواجه اعتماد الذكاء الاصطناعي في قطاع الرعاية الصحية عقبات كبيرة بسبب تحفظ النظم والطواقم الطبية، ومقاومة التغيير، حيث يحتمل تشكيك الإداريين والأطباء والفرق المعاونة في منافع هذا الذكاء والقلق بشأن تعطل سير العمل المعتاد؛ وخشية الموظفين من تهميشهم، أو تسريحهم.
إضافة إلى رفض المرضى التعامل مع الذكاء الاصطناعي وتفضيل البشر، بسبب الغموض أو اعتقادات تتعلق بجمود الذكاء الاصطناعي وبعده عن المشاعر. كما يعتبر دمج الذكاء الاصطناعي بالنظم القائمة تحديًا آخر؛ نظرًا لضرورة توافق حلول الذكاء الاصطناعي مع نظم المعلومات الصحية القائمة، والسجلات الصحية الإلكترونية.
وغياب الخبرة والتدريب المناسب للمهنيين لتعميق فهمهم لهذه التكنولوجيا التي تعد عقبة أيضًا باعتبارهما من العوامل الحاسمـــة للنجـــاح.
ولتخطي العقبات، أوصت الدراسة بوضع استراتيجيات لمخاطبتها، وأطر تنظيمية وعمليات موافقة ومراجعة لكل جديد من جانب الهيئات المعنية قبل الاستخدام، من أجل حماية المرضى، وتعزيز استخدام التكنولوجيا الفعالة. فمن خلال دمج الأطر التنظيمية والمبادئ التوجيهية في تطوير ونشر أدوات التشخيص ودعم القرار القائم على الذكاء الاصطناعي، يمكن ضمان الالتزام بمعايير السلامة والفاعلية، مثلما وضعت هيئات دولية - كوكالة الأدوية الأوربية، ووكالة الأدوية والأجهزة الطبية اليابانية - مبادئ توجيهية لتقييم والموافقة على التقنيات الطبية القائمة على الذكاء الاصطناعي.
ولاسيما مع وجود قضايا ثقة كتلك المتعلقة بالأجهزة القابلة للارتداء وفاعليتها، وتأثير البيانات الواردة منها على جودة اتخاذ القرار، مثل أجهزة قياس الضغط التي يتم ارتداؤها حول المعصم مقارنة بالأجهزة التقليدية، الأمر الذي قد يؤدي إلى إصدار أحكام غير صحيحة قائمة على بيانات غير دقيقة، تضر صحة المريض.
أمثلة واقعية
ومن الأمثلة الواقعية لقبول المرضى لتكنولوجيا الذكاء الاصطناعي واعتمادها في مجال الرعاية الصحية - وفقًا للدراسة - روبوت المحادثة بـ مايو كلينك - مركز طبي أكاديمي أمريكي - الذي يزود المرضى بمعلومات شخصية حول حالاتهم الصحية ويجيب على الأسئلة المتعلقة بصحتهم. ومساعد التمريض الافتراضي «فلورنس» الذي تستخدمه هيئة الخدمات الصحية الوطنية في ببريطانيا لدعم ذوي الأمراض المزمنة.
وتعد الجراحة الروبوتية المعتمدة على الذكاء الاصطناعي مثالًا آخر على قبول المرضى واعتماد تكنولوجيا الذكاء الاصطناعي في الرعاية الصحية، حيث تساعد الروبوتات الجراحين أثناء العمليات، وتساهم في تعزيز الدقة.
ولابد أن يقتضي نشر استخدام الذكاء الاصطناعي، وتشكيــل مستقبله في قطاع الرعاية الصحية وفي قطاعات أخرى، تعزيز ثقافة التغيير الإيجابي، وتوافر الانضباط الأخلاقي والحوكمة، وتدابير تطمئن الناس بشأن حمايتهم من الإيذاء، وتشركهم في وضع استراتيجيات وخطط دمج هذه التكنولوجيا وتنفيذها - بحيث لا يشعرون بفقــدان السيطرة تمامًا بسبب استقلالية تكنولوجيا الذكاء الاصطناعي - وترد على أسئلتهم بشفافية، وغير ذلك مما يبعدنا عن الرفض المطلق وضياع فرص الاستفادة.
ومرور الوقت كفيل بتحقيق المزيد من القبول المنشود لهذه التكنولوجيا في شتى المجالات، مثلما ارتفعت نسبة مستخدمي الإنترنت حول العالم بصورة دراماتيكية، وتزايد استخدام روبوتات الدردشة المدعمة بالذكاء الاصطناعي - مثل ChatGPT – ولا سيما الفئات العمرية الأصغر، حسبما بينت دراسة حديثة لمركز بيو للأبحاث ■