تتنامى المخاوف بشأن ذهان الذكاء الاصطناعي، والتعلق، والصحة العقلية، مع ورود تقارير عن أشخاص يعتبرون الذكاء الاصطناعي تعبيرا عن الرب. يخبرني العاملون على علم الوعي أن الاستفسارات تنهال عليهم من أشخاص يريدون أن يعرفوا ما إذا كان الذكاء الاصطناعي واعيا، وما إذا كان من المقبول الوقوع في حبه...
بقلم: مصطفى سليمان
ريدموند ــ كانت مهمة حياتي تتلخص في إنشاء ذكاء اصطناعي آمن ومفيد من شأنه أن يجعل العالم مكانا أفضل. ولكن في الآونة الأخيرة، ساورني القلق على نحو متزايد، حيث بدأ الناس يؤمنون بقوة بتطبيقات الذكاء الاصطناعي على أنها كيانات واعية، حتى أنهم يدافعون عن "حقوق الذكاء الاصطناعي" بل وحتى مَـنحِـه حق المواطنة. هذا التطور سيمثل منعطفا خطيرا لهذه التكنولوجيا يجب تجنبه. يتعين علينا أن نبني الذكاء الاصطناعي من أجل البشر، وليس ليكون بشرا.
في هذا السياق، تُـعَـد المناقشات الدائرة حول ما إذا كان الذكاء الاصطناعي من الممكن أن يمتلك الوعي حقا مجرد إلهاء. ما يهم في الأمد القريب هو وهم الوعي. نحن نقترب بالفعل مما أسميه أنظمة "الذكاء الاصطناعي الواعي ظاهريا" (SCAI) والتي ستحاكي الوعي بشكل مقنع بما فيه الكفاية.
سيكون الذكاء الاصطناعي الواعي ظاهريا قادرا على استخدام اللغة الطبيعية بطلاقة، فيُـظـهِر شخصية مقنعة وذات صدى عاطفيا. سيكون لديه ذاكرة طويلة ودقيقة تعزز إحساسا متماسكا بذاتها، وسوف يستخدم هذه القدرة لادعاء الخبرة الذاتية (من خلال الرجوع إلى تفاعلات وذكريات من الماضي). سوف تحاكي وظائف المكافأة المعقدة داخل هذه النماذج حافزا جوهريا، وسوف تعمل قدرته على تحديد الأهداف المتقدمة والتخطيط على تعزيز إحساسنا بأن الذكاء الاصطناعي يمارس وكالة حقيقية.
كل هذه القدرات حاضرة بالفعل أو على الأبواب. يتعين علينا أن ندرك أن مثل هذه الأنظمة ستكون ممكنة قريبا، وأن نبدأ في التفكير في العواقب المترتبة على ذلك، ونضع معيارا ضد السعي وراء الوعي الوهمي.
من منظور كثيرين، يبدو التفاعل مع الذكاء الاصطناعي بالفعل أشبه بتجربة غنية، ومجزية، وأصيلة. وتتنامى المخاوف بشأن "ذهان الذكاء الاصطناعي"، والتعلق، والصحة العقلية، مع ورود تقارير عن أشخاص يعتبرون الذكاء الاصطناعي تعبيرا عن الرب. من ناحية أخرى، يخبرني العاملون على علم الوعي أن الاستفسارات تنهال عليهم من أشخاص يريدون أن يعرفوا ما إذا كان الذكاء الاصطناعي واعيا، وما إذا كان من المقبول الوقوع في حبه.
من المؤكد أن جدوى الذكاء الاصطناعي الواعي ظاهريا على المستوى التقني لا تنبئنا إلا بأقل القليل حول ما إذا كان مثل هذا النظام واعيا. وكما يشير عالم الأعصاب أنيل سيث، فإن محاكاة عاصفة لا تعني أنها تمطر في حاسوبك. إن هندسة علامات الوعي الخارجية لا تخلق بأثر رجعي الشيء الحقيقي. ولكن كمسألة عملية، يجب أن نعترف بأن بعض الناس سيخلقون تطبيقات الذكاء الاصطناعي الواعي ظاهريا والتي ستزعم أنها واعية في حقيقة الأمر. والأمر الأكثر أهمية أن بعض الناس سيصدقونها، فيقبلون بأن علامات الوعي هي في حقيقة الأمر وعي.
حتى لو لم يكن هذا الوعي المتصور حقيقيا (وهو موضوع سَـيولِّـد جدلا لا نهاية له)، فإن الأثر الاجتماعي سيكون حقيقيا بالتأكيد. يرتبط الوعي بشكل وثيق بإحساسنا بالهوية وفهمنا للحقوق الأخلاقية والقانونية داخل المجتمع. إذا بدأ بعض الناس في تطوير أنظمة الذكاء الاصطناعي الواعي ظاهريا، وإذا أقنعت هذه الأنظمة الناس بأنها من الممكن أن تعاني، أو أنها لها الحق في رفض إيقاف تشغيلها، فسوف يضغط المدافعون عن حقوقها من البشر لحمايتها. في عالم تكتنفه بالفعل مجادلات استقطابية حول الهوية والحقوق، فإننا بهذا نضيف محورا جديدا للانقسام بين مؤيدي حقوق الذكاء الاصطناعي ومعارضيها.
لكن سيكون من الصعب دحض الادعاءات حول معاناة الذكاء الاصطناعي، بسبب محدودية العلم الحالي. الواقع أن بعض الأكاديميين يستكشفون بالفعل فكرة "رفاهة نماذج الذكاء الاصطناعي"، زاعمين أن "الواجب يحتم علينا العمل على توسيع نطاق الاعتبار الأخلاقي ليشمل الكائنات التي من المحتمل بدرجة لا يمكن إغفالها... أن تكون واعية".
سوف يكون تطبيق هذا المبدأ سابقا لأوانه وخطيرا في الوقت ذاته. فهو من شأنه أن يؤدي إلى تفاقم أوهام الأشخاص القابلين للتأثر واستغلال نقاط ضعفهم النفسية، هذا فضلا عن زيادة تعقيد الصراعات القائمة حول الحقوق من خلال خلق فئة جديدة ضخمة من أصحاب الحقوق. لهذا السبب يجب تجنب الذكاء الاصطناعي الواعي ظاهريا. يجب أن ينصب تركيزنا على حماية رفاهة وحقوق البشر، والحيوانات، والبيئة الطبيعية.
في ظل الوضع الراهن، نحن لسنا مستعدين لما هو قادم. نحن في أَمَـس الحاجة إلى البناء على مجموعة من الأبحاث المتنامية التي تتناول كيفية تفاعل الناس مع الذكاء الاصطناعي، حتى يتسنى لنا وضع معايير ومبادئ واضحة. أحد هذه المبادئ هو أن شركات الذكاء الاصطناعي لا ينبغي لها أن تعزز الاعتقاد بأن نماذج الذكاء الاصطناعي التي تنتجها واعية.
إن صناعة الذكاء الاصطناعي ــ بل صناعة التكنولوجيا بالكامل ــ تحتاج إلى مبادئ تصميم قوية وأفضل الممارسات في التعامل مع هذه الأشكال من الصفات. على سبيل المثال، قد تساعد لحظات انقطاع مقصودة في كسر الوهم وتذكير المستخدمين بلطف بمحدودية النظام وطبيعته الحقيقية. لكن مثل هذه البروتوكولات يجب أن تكون محددة ومصممة بشكل واضح، وربما تكون مُـلزِمة بموجب القانون.
في Microsoft AI، نعمل على نحو استباقي في محاولة لفهم ما قد تبدو عليه "شخصية" الذكاء الاصطناعي المسؤول، وما هي حواجز الوقاية التي يجب أن تحتوي عليها. مثل هذه الجهود أساسية، لأن معالجة مخاطر الذكاء الاصطناعي الواعي ظاهريا تستلزم رؤية إيجابية لرفاقنا من ذوي الذكاء الاصطناعي الذين يكملون حياتنا بطرق صحية.
ينبغي لنا أن نستهدف إنتاج نماذج ذكاء اصطناعي تشجع البشر على إعادة التواصل مع بعضهم بعضا في العالم الحقيقي، وليس الهروب إلى واقع مواز. وحيثما تكون تفاعلات الذكاء الاصطناعي دائمة، يجب أن تمتنع نماذجه عن تقديم نفسها إلا على أنها تطبيقات للذكاء الاصطناعي وليس كأشخاص مزيفين. إن تطوير ذكاء اصطناعي تمكيني حقيقي يتعلق بتعظيم المنفعة، مع تقليل محاكاة الوعي إلى الحد الأدنى.
يتعين علينا أن نبدأ على الفور مواجهة احتمالات الذكاء الاصطناعي الواعي ظاهريا. فهو يمثل من نواحٍ عديدة اللحظة التي يصبح فيها الذكاء الاصطناعي مفيدا بشكل ثوري: عندما يكون قادرا على تشغيل الأدوات، وتذكر كل تفاصيل حياتنا، وما إلى ذلك. ولكن لا يجوز لنا أن نتجاهل المخاطر المصاحبة لهذه الميزات. فجميعنا نعرف أشخاصا ينزلقون إلى حالة عصيبة ومعقدة. لن يكون هذا سلوكا صحيا، ولن يكون صحيا للمجتمع بأسره.
كلما جاء بناء الذكاء الاصطناعي صريحا في محاكاة هيئة البشر، كلما ضل الطريق بعيدا عن إمكاناته الحقيقية كمصدر لتمكين الإنسان.
اضف تعليق