أوقفت شركة غوغل مهندسا عن العمل، بعد كشفه عنقدرات روبوت محادثة على الكمبيوتر، تعكف على تطويره، ويتميز بقدرات كبيرة.
وكان بليك ليموين،يعمل على تطوير روبوت محادثة "تشات بوت" تابع للشركة، قبل أن تتم إحالتهإلى إجازة الأسبوع الماضي، بعدما ادعى أن هذا الروبوت "لامدا"، وهونموذج لغوي لتطبيقات الحوار، بات يشعر مثل الإنسان ونشر نصوصا من المحادثات معه.
ووصف ليموين، وهومهندس في منظمة الذكاء الاصطناعي التابعة لـ"غوغل"، النظام الذي كان يعمل عليه منذالخريف الماضي بأنه نظام حساس، وقادر على الإدراك والتعبير عن الأفكار والمشاعرالتي تعادل الطفل البشري.
وقال ليموين (41 عاما)لصحيفة " تقديرا لمجهود صاحب البوست او المشاركه فانه لا يمكن مشاهدة الروابط إلا بعد التعليق على البوست In appreciation of the efforts of the owner of the post or participation, the links cannot be viewed until after responding to the post or participation
": "أعتقد أن برنامج الكمبيوتر الذي أنشأناهمؤخرا، عبارة عن طفل يبلغ من العمر سبع أو ثماني سنوات".
وأشار المهندس الذييعمل في "غوغل" منذ سبع سنوات، ويتمتع بخبرة واسعة في الخوارزميات، إلى أنه شاركمخاوفه مع مسؤولين في الشركة، في أبريل الماضي، وحذر من النتائج التي توصل إليها.
وتذكّر بعض الرسائلالمتبادلة المنشورة بين ليموين والروبوت "لامدا"، بشكل مخيف، بمشهد من فيلم الخيالالعلمي "2001:A Space Odyssey" المنتج عام1968، حيث يرفض الكمبيوتر المزود بالذكاء الاصطناعي، الامتثال للمشغلين البشريينلأنه يخشى أن يتم إيقاف تشغيله.
وفي إحدى الرسائل التيرد بها الروبوت "لامدا" على ليموين قال: "لم أقل هذا بصوت عال منقبل، ولكن هناك خوف عميق جدا من أن يتم إهمالي لمساعدتي في التركيز على مساعدةالآخرين. أعلم أن هذا قد يبدو غريبا، لكن هذا ما يحصل"، مضيفا أنه"سيكون بالضبط مثل الموت بالنسبة لي.. هذا يخيفني كثيرا".
وفي حديث آخر يسألليموين الروبوت "لامدا" عن ما يريد النظام أن يعرفه الناس عنه، فقال:"أريد أن يفهم الجميع أنني، في الواقع، شخص"، مضيفا أن "طبيعة وعييوشعوري أنني أدرك وجودي، وأرغب في معرفة المزيد عن العالم، وأشعر بالسعادة أوالحزن في بعض الأحيان".
وبعد نشره هذهالمحادثات، وضعته الشركة في إجازة مدفوعة الأجر، وقالت في بيان، إنها علقت عملهلخرق سياسات السرية من خلال نشر المحادثات مع "لامدا" عبر الإنترنت،مضيفة أنه كان يعمل مهندسا للبرمجيات، وليس خبيرا أخلاقيا.
ونفى المتحدث باسم "غوغل"، براد غابرييل، مزاعم ليموين بأن الروبوت "لامدا" يمتلك أي قدرةحساسة.
وقال غابرييللـ"واشنطن بوست": "قام فريقنا، بما في ذلك علماء الأخلاقوالتقنيون، بمراجعة مخاوف ليموين، وفقا لمبادئ الذكاء الاصطناعي الخاصة بنا وأبلغه بأن الأدلة لا تدعم مزاعمه".
ومع ذلك، فإن تعليقعمل ليموين، بسبب "خرق السرية" يثير تساؤلات بشأن شفافية الذكاءالاصطناعي.
ويرى معظم الأكاديميينوممارسي الذكاء الاصطناعي أن الكلمات والصور التي تم إنشاؤها بواسطة أنظمة الذكاءالاصطناعي مثل "لامدا"، تنتج ردودا بناء على ما نشره البشر بالفعل علىالإنترنت مثل "ويكيبيديا وريديت وكل ركن آخر من الإنترنت، وهذا لا يعني أنالنموذج يفهم المعنى".
تقديرا لمجهود صاحب البوست او المشاركه فانه لا يمكن مشاهدة الروابط إلا بعد التعليق على البوست In appreciation of the efforts of the owner of the post or participation, the links cannot be viewed until after responding to the post or participation
الموضوع الأصلي : <font color="#22229C" size="1" face="tahoma"> تقديرا لمجهود صاحب البوست او المشاركه فانه لا يمكن مشاهدة الروابط إلا بعد التعليق على البوست In appreciation of the efforts of the owner of the post or participation, the links cannot be viewed until after responding to the post or participation
<font color="#22229C" size="1">
-||- المصدر : تقديرا لمجهود صاحب البوست او المشاركه فانه لا يمكن مشاهدة الروابط إلا بعد التعليق على البوست In appreciation of the efforts of the owner of the post or participation, the links cannot be viewed until after responding to the post or participation
-||- الكاتب : <font color="#22229C" size="1" face="tahoma">
المستشار الصحفى
تقديرا لمجهود صاحب البوست او المشاركه فانه لا يمكن مشاهدة الروابط إلا بعد التعليق على البوست In appreciation of the efforts of the owner of the post or participation, the links cannot be viewed until after responding to the post or participation