الجريدة العربية
استقال جيفري هينتون Eoffrey Hinton ، رائد الذكاء الاصطناعي ، يوم الاثنين 1 مايو من Google بعد 10 سنوات مع العملاق الأمريكي . وفي مقابلة مع صحيفة نيويورك تايمز ، كشف أنه غادر للتحدث بحرية عن الذكاء الاصطناعي التوليدي مثل ChatGPT ، دون أن يؤثر ذلك على الشركة . إنه يعرب عن أسفه لتورطه في تطوير هذا الأخير ويعزي نفسه بطريقة ما بعذر قال فيه : “لو لم أفعل ذلك ، لكان شخص آخر قد فعل ذلك” .
خريج علم النفس التجريبي وطبيب في الذكاء الاصطناعي ، كرس هذا اللندني حياته كلها للبحث في الذكاء الاصطناعي . سواء كان باحثًا في جامعة كارنيجي ميلون أو جامعة تورنتو أو في Google – التي انضم إليها كجزء من فريق Google Brain في عام 2013 – طور جيفري هينتون شبكات عصبية اصطناعية – أنظمة رياضية تتعلم مهارات جديدة من خلال تحليل البيانات . في عام 2018 ، حصل على جائزة تورينج عن الشبكات التي أنشأها . ويعتبر شخصية رئيسية في مجال الذكاء الاصطناعي ، وقد ألهم عمل يان لو كون ويوشوا بنجيو .
تائبًا و “نادما” ، عاد جيفري هينتون إلى الحديث عن مخاطر الذكاء الاصطناعي ، والتي من شأنها ، حسب قوله ، “مخاطر جسيمة على المجتمع والإنسانية” ، كما أوضح في مقابلته مع صحيفة نيويورك تايمز . وفيما يلي أكبر خمس مخاوف حددها عالم و رائد الذكاء الاصطناعي جيفري هينتون .
الذكاء الاصطناعي : عندما تتجاوز الآلة منشئها .
أدت المنافسة بين عمالقة التكنولوجيا الكبرى إلى تقدم لا يمكن لأحد أن يتخيله ، وفقًا لجيفري هينتون . تجاوزت السرعة التي يحدث بها التقدم توقعات العلماء : “لم يؤمن سوى عدد قليل من الناس بفكرة أن هذه التكنولوجيا يمكن أن تصبح في الواقع أكثر ذكاءً من البشر … وأعتقد بنفسي أنها ستكون الحالة خلال 30 إلى 50 سنة القادمة . بالطبع ” .
حتى العام الماضي ، لم يكن يعتبر هذا التقدم خطيرًا ، لكن رأي رائد الذكاء الاصطناعي تغير عندما طورت Google و OpenAI أنظمة عصبية قادرة على معالجة كميات كبيرة جدًا من البيانات ، والتي يمكن أن تجعل هذه الأنظمة أكثر كفاءة من الدماغ البشري ( حسب زعمهم ) ، وبالتالي فهي خطيرة للغاية .
تهديد “الروبوتات القاتلة” .
يعتبر الأستاذ Ilya Sutskever – المدير العلمي الحالي لـ OpenAI – التقدم التكنولوجي سريعًا للغاية ، مقارنة بالوسائل التي لدينا لتنظيم استخدام الذكاء الاصطناعي . يقول الباحث : “لا أعتقد أننا يجب أن نسرع الأمر حتى نكتشف ما إذا كان بإمكاننا التحكم فيه” . إنه يخشى أن تصبح عمليات الإفراج في المستقبل “تهديدات للبشرية” .
وفقًا له ، ستكون أنظمة الذكاء الاصطناعي المستقبلية قادرة على تطوير سلوكيات غير متوقعة بعد تحليل كمية كبيرة من البيانات . و أصبح هذا ممكنًا لأن أنظمة الذكاء الاصطناعي تقوم بإنشاء الكود الخاص بها وتشغيله … مما قد يحولها إلى “أسلحة مستقلة” و “روبوتات قاتلة” ، على الرغم من أن العديد من الخبراء يقللون من أهمية هذا التهديد .
الذكاء الاصطناعي في أيدي الجهات الخبيثة .
ووفقًا لجيفري هينتون ، فإن التهديد يأتي أيضًا من إساءة استخدام الذكاء الاصطناعي من قبل الجهات الفاعلة الخطيرة . وهو قلق من أنه “من الصعب معرفة كيفية منع الجهات السيئة من استخدامه لأغراض شريرة” . كما يعارض جيفري هينتون بشكل خاص استخدام الذكاء الاصطناعي في المجال العسكري . وهو يخشى بشكل خاص من تطور البشر “للجنود الآليين” . ففي ثمانينيات القرن الماضي ، قرر ترك جامعة كارنيجي ميلون في الولايات المتحدة لأن أبحاثه هناك تم تمويلها من قبل البنتاغون .
التقنية الحديثة “مولد هراء” .
أخيرًا وليس آخرًا ، تهديد المعلومات الخاطئة المتعلقة بالذكاء الاصطناعي , سيجعل هذا الاندفاع العلمي ، مقترنًا بالاستخدام المكثف للذكاء الاصطناعي ، من المستحيل تقريبًا تمييز “ما هو صحيح وما هو ليس كذلك” . بل إن العالِم يتحدث عن “منشئ هراء” . تعبير قاس و عميق يشير إلى قدرة الذكاء الاصطناعي على إنتاج عبارات مقنعة تبدو معقولة دون أن تكون صحيحة .
إذن ما الحل ؟
يؤيد خبير الشبكة العصبية التنظيم بين المؤسسات الرائدة في الذكاء الاصطناعي ، لكنه يظل واضحًا في قوله : “قد لا يكون الأمر ممكنًا . تمامًا كما هو الحال مع الأسلحة النووية ، لا توجد طريقة لمعرفة ما إذا كانت الشركات أو الدول تعمل عليها سراً . الأمل الوحيد هو أن يعمل أعظم العلماء في العالم يداً بيد لإيجاد حلول للتحكم في الذكاء الاصطناعي ” ……