جوجل توضح أن الذكاء الاصطناعي لم يصبح واعيًا بعد
أفادت صحيفة واشنطن بوست أن Google وضعت أحد مهندسيها في إجازة إدارية مدفوعة الأجر بزعم انتهاكه لسياسة عدم الإفشاء بعد مخاوف بشأن مدى حساسية نظام الدردشة الآلي للذكاء الاصطناعي.
قال المهندس إنه يعتقد أن البرنامج قد وصل إلى مستوى من الوعي بعد مئات التفاعلات مع أحدث نظام ذكاء اصطناعي لم يتم إصداره يسمى LaMDA.
تواصل شركات التكنولوجيا تحسين قدرات الذكاء الاصطناعي المتطور باستمرار. لكن سرعان ما رفضت Google المزاعم القائلة بأن أحد برامجها قد طور الشعور.
جوجل توضح أن الذكاء الاصطناعي لم يصبح واعيًا بعد |
يعمل المهندس Blake Lemoine في منظمة الذكاء الاصطناعي المسؤولة في Google. إنه يختبر ما إذا كان نموذج لامدا يمكن أن يولد لغة تمييزية أو خطاب كراهية.
تنبع مخاوف المهندس من الردود البليغة التي رآها يولدها نظام الذكاء الاصطناعي لحقوقه وأخلاقيات الروبوت.
في أبريل، شارك وثيقة مع المديرين التنفيذيين بعنوان "هل Lambda واعية؟" يحتوي على نسخ من محادثاته مع نموذج الذكاء الاصطناعي.
بعد الإجازة، نشر Lemoyne النص على حسابه على موقع Medium، والذي قال إنه أظهر أن النموذج يعتقد أنه حساس لأنه يحتوي على مشاعر وعواطف وتجارب ذاتية.
جادل Google بأن تصرفات Lemoine المتعلقة بعمله في Lambda تنتهك سياسة السرية الخاصة بها. اتصل Lemoine بالمحامين الذين يمثلون أنظمة الذكاء الاصطناعي وتحدث مع ممثلي اللجنة القضائية في مجلس النواب حول أنشطة الشركة غير الأخلاقية المزعومة.
في 6 يونيو، وهو اليوم الذي تم فيه منح ليموين إجازة إدارية، قال المهندس إنه سعى للحصول على قدر ضئيل من الاستشارات الخارجية للمساعدة في توجيه تحقيقه في قضايا أخلاقيات الذكاء الاصطناعي التي أثارها داخل الشركة. قائمة الأشخاص الذين ناقشهم تشمل موظفي الحكومة أمريكي.
وأعلن عملاق البحث علنًا عن لامدا في Google I / O 2021. تأمل Google في أن تساعد lambda في تحسين مساعدي الذكاء الاصطناعي للمحادثة وجعل المحادثات أكثر طبيعية.
تستخدم الشركة تقنية نموذج لغة مماثلة لميزة الكتابة الذكية في Gmail أو استعلامات محرك البحث.
وقال المتحدث باسم جوجل براين جابرييل إنه لا يوجد دليل على أن لامدا كانت واعية. راجع فريقنا مخاوف بليك بشأن مبادئ الذكاء الاصطناعي وأبلغه أن الأدلة لا تدعم مزاعمه. قيل له إنه لا يوجد دليل على أن لامدا واعية (وهناك الكثير من الأدلة ضدها.
تدعي جوجل أن المهندس انتهك سياسات السرية
وأضاف غابرييل: يدرس البعض في مجتمع الذكاء الاصطناعي الأوسع إمكانية طويلة المدى للذكاء الاصطناعي الواعي أو العام. لكن ليس من المنطقي القيام بذلك من خلال تجسيد نموذج الحوار اللاواعي اليوم. تحاكي هذه الأنظمة عمليات التبادل المختلفة في ملايين الجمل ويمكنها التعمق في أي موضوع خيالي. هو يقول يستخدم المئات من الباحثين والمهندسين لامدا، لكننا لا نعرف أي شخص آخر يقدم تأكيدات واسعة مثل بليك أو يجسد لامدا.
دحض الكثيرون في مجتمع الذكاء الاصطناعي مزاعم المهندس في المقابلات والبيانات العامة. في حين أشار البعض، تكشف رواياته كيف يمكن للتكنولوجيا أن تقود الناس إلى منحهم سمات بشرية.
ولكن يمكن القول إن الاعتقاد بأن الذكاء الاصطناعي يمكن أن يشعر به يؤكد المخاوف بشأن ما يمكن أن تفعله التكنولوجيا.
يتفق أساتذة اللغويات على أنه من الخطأ ربط الاستجابات المكتوبة المقنعة بالمشاعر. قالت إميلي بندر، الأستاذة في جامعة واشنطن: "لدينا الآن آلات يمكنها توليد الكلمات دون تفكير". لكننا لم نتعلم كيف نتوقف عن تخيل الأفكار الكامنة وراء ذلك.
قال Timnit Gebru، خبير أخلاقي بارز في مجال الذكاء الاصطناعي تم تعليقه من قِبل Google في عام 2020، إن المناقشات حول الوعي بالذكاء الاصطناعي يمكن أن تقوض المحادثة الأخلاقية الأكثر أهمية حول استخدام الذكاء الاصطناعي.
على الرغم من مخاوفه، قال Lemoine إنه يعتزم مواصلة البحث عن الذكاء الاصطناعي في المستقبل. وكتب في تغريدة: أنوي البقاء في مجال الذكاء الاصطناعي سواء كان جوجل أو شركات أخرى.