
كما سيخبرك أي مخادع عظيم ، فإن الهدف الكامل من الوهم التدريجي هو أن تبدو مقنعًا تمامًا ، لجعل كل ما يحدث على خشبة المسرح يبدو حقيقيًا تمامًا بحيث لا يكون لدى الجمهور العادي أي طريقة لمعرفة كيفية عمل الوهم.
إذا لم يكن الأمر كذلك ، فلن يكون هذا وهمًا ، وسيكون المخادع في الأساس بلا وظيفة. في هذا القياس ، فإن Google هي المخادع ، وروبوت الدردشة LaMDA الخاص بها – وهو تصدرت عناوين الصحف قبل بضعة أسابيع بعد أن ادعى أحد كبار المهندسين أن الذكاء الاصطناعي قد حقق الإحساس – هذا هو الوهم. أي رغم تصاعد الإثارة والتكهنات على مواقع التواصل الاجتماعي وفي وسائل الإعلام بشكل عام وعلى الرغم من ذلك ادعاءات المهندس، LaMDA ليس واعيًا.
كيف يمكن إثبات ذكاء الذكاء الاصطناعي؟
هذا ، بالطبع ، سؤال المليون دولار – الذي لا توجد إجابة له حاليًا.
LaMDA هو وكيل دردشة قائم على نموذج اللغة مصمم لإنشاء جمل ومحادثات مرنة تبدو طبيعية تمامًا. السيولة تقف في تناقض صارخ مع روبوتات الدردشة المدعومة بالذكاء الاصطناعي المربكة والفاخرة التي كانت تؤدي في كثير من الأحيان إلى الإحباط أو مضحك عن غير قصد “المحادثات” ، وربما كان هذا التناقض هو الذي أثار إعجاب الناس كثيرًا وبشكل مفهوم.
ملكنا التحيز الطبيعي يخبرنا أن الكائنات البشرية الأخرى فقط هي القادرة على أن تكون “صريحة”. وبالتالي ، عند مشاهدة هذا المستوى من النطق من الذكاء الاصطناعي ، فمن الطبيعي أن تشعر أنه يجب أن يكون واعيًا بالتأكيد.
لكي يكون الذكاء الاصطناعي واعيًا حقًا ، يجب أن يكون قادرًا على التفكير والإدراك والشعور ، بدلاً من مجرد استخدام اللغة بطريقة طبيعية للغاية. ومع ذلك ، ينقسم العلماء حول مسألة ما إذا كان من الممكن حتى لنظام الذكاء الاصطناعي أن يكون قادرًا على تحقيق هذه الخصائص.
هناك علماء مثل راي كورزويل الذين يعتقدون أن جسم الإنسان يتكون من عدة آلاف من البرامج ، وإذا تمكنا من اكتشاف كل تلك البرامج ، فيمكننا بناء نظام ذكاء اصطناعي واعي.
لكن البعض الآخر يختلف على الأسس التالية: 1) لا يمكن ربط الذكاء والوظائف البشرية بعدد محدود من الخوارزميات ، و 2) حتى لو قام النظام بتكرار كل هذه الوظائف في شكل ما ، فلا يمكن اعتبارها حساسة حقًا ، لأن الوعي ليس شيئًا يمكن إنشاؤه بشكل مصطنع.
بصرف النظر عن هذا الانقسام بين العلماء ، لا توجد حتى الآن معايير مقبولة لإثبات الشعور المزعوم لنظام الذكاء الاصطناعي. الشهير اختبار تورينج، الذي تم ذكره في الوقت الحالي على وسائل التواصل الاجتماعي ، يهدف فقط إلى قياس قدرة الآلة على إظهار سلوك ذكي ظاهريًا على قدم المساواة مع الإنسان أو لا يمكن تمييزه عنه.
إنه غير قادر بشكل كافٍ على إخبارنا بأي شيء عن مستوى وعي الآلة (أو عدمه). لذلك ، في حين أنه من الواضح أن LaMDA قد اجتاز اختبار Turing بألوان متطايرة ، فإن هذا في حد ذاته لا يثبت وجود وعي مدرك للذات. إنه يثبت فقط أنه يمكن أن يخلق الوهم بامتلاك وعي مدرك للذات ، وهو بالضبط ما صُمم من أجله.
متى ، إذا كان هناك أي وقت مضى ، هل سيصبح الذكاء الاصطناعي واعيًا؟
حاليًا ، لدينا العديد من التطبيقات التي تُظهر الذكاء الاصطناعي الضيق. ANI هو نوع من الذكاء الاصطناعي مصمم لأداء مهمة واحدة بشكل جيد للغاية. تتضمن الأمثلة على ذلك برامج التعرف على الوجه ، وأدوات رسم خرائط الأمراض ، ومرشحات توصية المحتوى ، والبرامج التي يمكنها لعب الشطرنج.
يقع LaMDA ضمن فئة الذكاء الاصطناعي العام ، أو AGI – وتسمى أيضًا “الذكاء الاصطناعي العميق” – أي ، الذكاء الاصطناعي المصمم لتقليد الذكاء البشري الذي يمكنه تطبيق هذا الذكاء في مجموعة متنوعة من المهام المختلفة.
لكي يكون الذكاء الاصطناعي واعيًا ، سيحتاج إلى تجاوز هذا النوع من ذكاء المهام وإظهار الإدراك والمشاعر وحتى الإرادة الحرة. ومع ذلك ، اعتمادًا على كيفية تعريفنا لهذه المفاهيم ، من الممكن ألا يكون لدينا مطلقًا ذكاء اصطناعي واعي.
حتى في أفضل السيناريوهات ، قد يستغرق الأمر ما لا يقل عن خمس إلى عشر سنوات أخرى ، بافتراض أنه يمكننا تحديد المفاهيم المذكورة أعلاه مثل الوعي والإرادة الحرة بطريقة موحدة وموضوعية عالمية.
ذكاء اصطناعي واحد يحكمهم جميعًا … أم لا
تذكرني قصة LaMDA عندما أنشأ فريق إنتاج المخرج السينمائي بيتر جاكسون ذكاءً اصطناعيًا ، يُسمى بشكل مناسب Large ، لتجميع مشاهد المعركة الملحمية في ثلاثية Lord of the Rings.
كانت مهمة Large هي محاكاة الآلاف من جنود CGI الفرديين في ساحة المعركة ، كل منهم يعمل كوحدة مستقلة ، بدلاً من مجرد محاكاة نفس الحركات. في الفيلم الثاني ، The Two Towers ، هناك تسلسل معركة عندما يقوم الأشرار في الفيلم بإخراج وحدة من الماموث العملاق لمهاجمة الأخيار.
كما تقول القصة ، بينما كان الفريق يختبر هذا التسلسل لأول مرة ، كان جنود CGI يلعبون دور الأخيار ، عند رؤية الماموث ، هربوا في الاتجاه الآخر بدلاً من محاربة العدو. سرعان ما انتشرت الشائعات بأن هذا كان رد فعل ذكي ، حيث “قرر” جنود CGI أنهم لن يتمكنوا من الفوز في هذه المعركة واختاروا الجري للنجاة بحياتهم بدلاً من ذلك.
في الواقع ، كان الجنود يركضون في الاتجاه الآخر بسبب نقص البيانات، ليس بسبب نوع من الإحساس الذي اكتسبوه فجأة. قام الفريق ببعض التعديلات وتم حل المشكلة. كان العرض الظاهر لـ “الذكاء” خطأً وليس ميزة. لكن في مثل هذه المواقف ، يكون من المغري والمثير أن نفترض الشعور. كلنا نحب عرضًا سحريًا جيدًا ، بعد كل شيء.
الحرص على ما نتمناه
أخيرًا ، أعتقد أننا يجب أن نسأل أنفسنا حقًا ما إذا كنا نريد حتى أن تكون أنظمة الذكاء الاصطناعي واعية. لقد انغمسنا في الضجيج حول شعور الذكاء الاصطناعي لدرجة أننا لم نسأل أنفسنا بما يكفي عما إذا كان هذا هدفًا يجب أن نسعى لتحقيقه أم لا.
أنا لا أشير إلى خطر انقلاب الذكاء الاصطناعي الواعي علينا ، كما يحب العديد من أفلام الخيال العلمي البائس تخيله. إنه ببساطة أنه يجب أن يكون لدينا فكرة واضحة عن سبب رغبتنا في تحقيق شيء ما لمواءمة التقدم التكنولوجي مع الاحتياجات المجتمعية.
ما الفائدة التي ستأتي من استخلاص الذكاء الاصطناعي بخلاف كونه “رائعًا” أو “مثيرًا”؟ لماذا ينبغي لنا أن نفعل ذلك؟ من سيساعد؟ حتى أن بعض أفضل نوايانا مع هذه التكنولوجيا قد ثبت أن لها آثارًا جانبية خطيرة – مثل أنظمة الذكاء الاصطناعي القائمة على نموذج اللغة في الأسئلة والأجوبة الطبية التوصية بالانتحار – دون أن نضع حواجز حماية مناسبة حولهم.
سواء كان الأمر يتعلق بالرعاية الصحية أو السيارات ذاتية القيادة ، فنحن متخلفون كثيرًا عن التكنولوجيا عندما يتعلق الأمر بفهم وتنفيذ واستخدام مسؤولية الذكاء الاصطناعي مع الاعتبارات المجتمعية والقانونية والأخلاقية.
إلى أن يكون لدينا ما يكفي من المناقشات والقرارات على هذا المنوال ، أخشى أن يستمر الضجيج والمفاهيم الخاطئة حول الذكاء الاصطناعي في السيطرة على الخيال الشعبي. قد تكون مسرحية ساحر أوز مسلية لنا ، ولكن بالنظر إلى المشاكل المحتملة التي يمكن أن تنجم عن هذه المفاهيم الخاطئة ، فقد حان الوقت لرفع الستار والكشف عن الحقيقة الأقل روعة وراءها.
الدكتور جيراق شاه هو أستاذ مشارك في مدرسة المعلومات في جامعة واشنطن.
