[ccpw id="5"]

HomeAlsihaالرأي: النهج غير الصحي لمنظمة الصحة العالمية تجاه الذكاء الاصطناعي

الرأي: النهج غير الصحي لمنظمة الصحة العالمية تجاه الذكاء الاصطناعي

-



بدأت منظمة الصحة العالمية مؤخرًا في البث المباشر ساره، برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي والمكلف بتقديم المشورة للجمهور بشأن اتباع أنماط حياة أكثر صحة.

وفقًا لمنظمة الصحة العالمية، فإن سارة، التي تعني مساعد موارد الذكاء الاصطناعي الذكي للصحة، هي “مروجة للصحة الرقمية، متاحة على مدار الساعة طوال أيام الأسبوع بثماني لغات عبر الفيديو أو الرسائل النصية. يمكنها تقديم نصائح للتخلص من التوتر، وتناول الطعام بشكل صحيح، والإقلاع عن التبغ”. والسجائر الإلكترونية، تكون أكثر أمانًا على الطرق، فضلاً عن تقديم معلومات حول العديد من المجالات الصحية الأخرى.

للوهلة الأولى، تقدم سارة استخدامًا مبتكرًا للتكنولوجيا من أجل الصالح العام – مساعد يعمل بالذكاء الاصطناعي قادر على تقديم نصائح مخصصة في أي وقت وفي أي مكان، مع إمكانية مساعدة المليارات.

ولكن عند الفحص الدقيق، يمكن القول إن سارة هي نتاج الضجيج والضجيج منظمة العفو الدولية فومو باعتبارها أداة للتغيير الإيجابي.

الذكاء الاصطناعي المستخدم في بناء سارة، الذكاء الاصطناعي التوليدي، يجلب معه قدرًا لا يصدق من المخاطر. ومن المعروف أن الروبوتات التي تدعم هذه التكنولوجيا توفر نصيحة غير دقيقة وغير كاملة ومتحيزة وسيئة بشكل عام.

إحدى الحالات الأخيرة وسيئة السمعة هي برنامج chatbot الذي لم يعد موجودًا الآن، تيسا. تم تطوير تيسا من أجل الجمعية الوطنية لاضطرابات الأكل، وكان من المفترض أن تحل محل الخط الساخن الذي يعمل بالطاقة البشرية منذ فترة طويلة للمنظمة.

ولكن قبل أيام قليلة من بدء البث المباشر، أصبحت تيسا مارقة. بدأ الروبوت في التوصية بأن يقوم الأشخاص الذين يعانون من اضطرابات الأكل بتقييد السعرات الحرارية التي يتناولونها، وقياس الوزن بشكل متكرر، ووضع أهداف صارمة لفقدان الوزن. ومن حسن الحظ أن NEDA أوقفت تيسا، وتم تجنب الأزمة ــ ولكن هذا يسلط الضوء على الحاجة الملحة إلى الحذر والمسؤولية في استخدام مثل هذه التكنولوجيات.

تؤكد هذه النتيجة المثيرة للقلق على طبيعة الذكاء الاصطناعي التوليدي التي لا يمكن التنبؤ بها -والخطيرة في بعض الأحيان-. إنه مثال واضح على أنه في غياب الضمانات الصارمة فإن احتمالات الضرر تصبح هائلة.

مع أخذ هذه الخلفية التحذيرية في الاعتبار، قد يتوقع المرء أن تتصرف منظمات الصحة العامة الكبيرة بحذر إضافي. ومع ذلك، يبدو أن هذا ليس هو الحال مع منظمة الصحة العالمية وبرنامج الدردشة الآلي التابع لها. على الرغم من إدراكها الواضح للمخاطر المرتبطة بالذكاء الاصطناعي التوليدي، فقد أطلقت سراح سارة للجمهور.

منظمة الصحة العالمية تنصل يقرأ على النحو التالي:

منظمة الصحة العالمية سارة هي نموذج أولي يستخدم الذكاء الاصطناعي التوليدي لتوصيل الرسائل الصحية بناءً على المعلومات المتاحة. ومع ذلك، قد لا تكون الإجابات دقيقة دائمًا لأنها تعتمد على الأنماط والاحتمالات الموجودة في البيانات المتاحة. لم يتم تصميم مروج الصحة الرقمية لتقديم المشورة الطبية. لا تتحمل منظمة الصحة العالمية أي مسؤولية عن أي محتوى محادثة تم إنشاؤه بواسطة Geneative AI.

علاوة على ذلك، فإن محتوى المحادثة الذي أنشأته Geneative AI لا يمثل أو يشتمل بأي حال من الأحوال على آراء أو معتقدات منظمة الصحة العالمية، ولا تضمن منظمة الصحة العالمية دقة أي محتوى محادثة. يرجى مراجعة موقع منظمة الصحة العالمية للحصول على المعلومات الأكثر دقة. باستخدام WHO Sarah، فإنك تفهم وتوافق على أنه لا ينبغي عليك الاعتماد على الإجابات التي تم إنشاؤها كمصدر وحيد للحقيقة أو المعلومات الواقعية، أو كبديل للمشورة المهنية.

وببساطة، يبدو أن منظمة الصحة العالمية تدرك احتمال قيام سارة بنشر معلومات مضللة مقنعة على نطاق واسع، وهذا إخلاء المسؤولية هو نهجها في التخفيف من المخاطر. وهي موجودة في أسفل صفحة الويب، وهي توصل بشكل أساسي ما يلي: “هذه هي أداتنا الجديدة. لا ينبغي عليك الاعتماد عليها بالكامل. ومن الأفضل لك زيارة موقعنا على الويب.”

ومع ذلك، تعمل منظمة الصحة العالمية على حماية سارة من خلال تنفيذ استجابات مقيدة للغاية تهدف إلى الحد من مخاطر المعلومات المضللة. ومع ذلك، فإن هذا النهج ليس مضمونا. النتائج الأخيرة تشير إلى أن الروبوت لا يوفر دائمًا معلومات محدثة.

علاوة على ذلك، عندما تكون الضمانات فعالة، فإنها يمكن أن تجعل روبوت الدردشة عامًا بشكل غير عملي وخاليًا من أي مادة قيمة، مما يقلل في النهاية من فائدته كأداة معلوماتية ديناميكية.

إذن ما هو الدور الذي تلعبه سارة؟ إذا أوصت منظمة الصحة العالمية صراحة بأن يزور الأشخاص موقعها الإلكتروني للحصول على معلومات دقيقة، فيبدو أن نشر سارة كان مدفوعًا بالضجيج أكثر من المنفعة.

من الواضح أن منظمة الصحة العالمية منظمة بالغة الأهمية لتعزيز الصحة العامة على نطاق عالمي. أنا لا أشكك في قيمتها الهائلة. ولكن هل هذا هو تجسيد للذكاء الاصطناعي المسؤول؟ بالتاكيد لا! يلخص هذا السيناريو تفضيل السرعة على الأمان.

إنه نهج لا يجب أن يصبح هو القاعدة لدمج الذكاء الاصطناعي التوليدي في الأعمال والمجتمع. إن المخاطر ببساطة مرتفعة للغاية.

ماذا يحدث إذا بدأ برنامج الدردشة الآلي التابع لمؤسسة محترمة في نشر معلومات مضللة خلال حالة طوارئ صحية عامة مستقبلية، أو روج لممارسات غذائية ضارة مشابهة لبرنامج الدردشة الآلي الشهير “تيسا” المذكور سابقًا؟

وبالنظر إلى الطرح الطموح لـ “سارة”، قد يتساءل المرء عما إذا كانت المنظمة تستجيب لنصيحتها الخاصة. في مايو 2023، نشرت منظمة الصحة العالمية بيانًا يؤكد على الحاجة إلى الاستخدام الآمن والأخلاقي للذكاء الاصطناعيربما يكون ذلك بمثابة مبدأ توجيهي يجب إعادة النظر فيه.

وتؤكد منظمة الصحة العالمية من جديد أهمية تطبيق المبادئ الأخلاقية والحوكمة المناسبة، على النحو المبين في الوثيقة إرشادات منظمة الصحة العالمية بشأن أخلاقيات الذكاء الاصطناعي وإدارته في مجال الصحةعند تصميم وتطوير ونشر الذكاء الاصطناعي في مجال الصحة.

والمبادئ الأساسية الستة التي حددتها منظمة الصحة العالمية هي: (1) حماية الاستقلالية؛ (2) تعزيز رفاهية الإنسان وسلامته والمصلحة العامة؛ (3) ضمان الشفافية وقابلية الشرح والوضوح؛ (4) تعزيز المسؤولية والمساءلة؛ (5) ضمان الشمولية والإنصاف؛ (6) تعزيز الذكاء الاصطناعي المستجيب والمستدام.

من الواضح أن مبادئ منظمة الصحة العالمية الخاصة بالاستخدام الآمن والأخلاقي للذكاء الاصطناعي يجب أن توجه عملية صنع القرار، لكن الأمر لا ينطبق على سارة. وهذا يثير تساؤلات حرجة حول قدرته على إحداث ثورة مسؤولة في مجال الذكاء الاصطناعي.

إذا كانت منظمة الصحة العالمية تستخدم هذه التكنولوجيا بهذه الطريقة، فما هي الفرصة المتاحة للاستخدام الحكيم للذكاء الاصطناعي في السياقات حيث قد تتنافس الحوافز المالية مع أهمية الصحة والسلامة العامة أو تلقي بظلالها عليها؟

إن الاستجابة لهذا التحدي تتطلب قيادة مسؤولة. نحن بحاجة إلى قادة يمنحون الأولوية للأشخاص والاعتبارات الأخلاقية فوق ضجيج التقدم التكنولوجي. فقط من خلال القيادة المسؤولة يمكننا ضمان استخدام الذكاء الاصطناعي بطريقة تخدم المصلحة العامة حقًا وتدعم ضرورة عدم إلحاق الضرر.

بريان ر. سبيساك هو مستشار مستقل يركز على التحول الرقمي في مجال الرعاية الصحية. وهو أيضًا باحث مشارك في مبادرة قيادة التأهب الوطنية في كلية تي إتش تشان للصحة العامة بجامعة هارفارد، وعضو هيئة التدريس في الكلية الأمريكية للمديرين التنفيذيين للرعاية الصحية ومؤلف الكتاب. القيادة الحاسوبية.

LATEST POSTS

العولميون يهتفون بفوز مامداني | ارمسترونج الاقتصاد

فخور جدًا بكوني أحد سكان نيويورك! الحلم الأمريكي مستمر! مبروك يا عمدة @ZohranKMamdani ؟؟؟؟ pic.twitter.com/nvR5Zb46TI – أليكس سوروس (@ AlexanderSoros) 5 نوفمبر 2025 وقد هنأ...

الجمهوريون ينهارون ويشيرون إلى أنهم على استعداد للانفصال عن ترامب بشأن دعم أوباماكير

ومن المقرر أن يصوت مجلس الشيوخ غدا على خطة لإعادة فتح الحكومة. سوف يفشل هذا التصويت مثل أكثر من اثني عشر التصويت الذي سبقه.وفي...

النظم الغذائية هي الحلقة المفقودة في التنمية الاجتماعية – القضايا العالمية

رأي بقلم جورج كونواي (مقديشو / روما)الجمعة 31 أكتوبر 2025انتر برس سيرفس مقديشو / روما, أكتوبر 31 (IPS) - كان الطعام دائمًا سياسيًا. فهو يقرر...

الأكثر شهرة