وفقا لأحد رواده.. هذه أبرز مخاطر الذكاء الاصطناعي
و بعد مرور عشرة أعوام في خدمة غوغل قام رائد الذكاء الاصطناعي جيفري هينتون بالإستقالة ، و وضح في مقابلة مع صحيفة نيويورك تايمز الأميركية أنه قد غادر للتحدث بحرية عن الذكاء الاصطناعي التوليدي، وعن المخاطر الأساسية للذكاء الاصطناعي.
أبرز مخاطر الذكاء الاصطناعي
حذار من أن تتجاوز الآلة صانعها
وانتهت المنافسة بين عمالقة التكنولوجيا الكبرى إلى تقدم لا يستطيع أحد أن يتخيله، وتبعا لجيفري هينتون، فقد تجاوزت السرعة التي يحدث بها التقدم توقعات العلماء و”لم يؤمن سوى عدد قليل من الناس بفكرة أن تلك التكنولوجيا من الممكن أن تصبح في الواقع أكثر ذكاءاً من البشر.. وكنت شخصيا أعتقد أن هذا لن يحدث إلا في غضون 30 إلى 50 سنة أو ربما أكثر، وبالطبع، لم أعد حاليا ان أعتقد ذلك”.
واوضح جيفري هينتون ايضا: ان الأمل الوحيد هو أن يعمل أهم العلماء في العالم يدا بيد من اجل إيجاد حلول للتحكم في الذكاء الاصطناعي
حتى العام الماضي، لم يكن يعتبر هذا التقدم خطيرا، لكن وجهة نظره قد تغيرت عندما طورت غوغل و”أوبن إيه آي” OpenAI أنظمة عصبية قادرة على معالجة كميات كبيرة جدا من البيانات، التي يمكن أن تجعل هذه الأنظمة أكثر كفاءة من الدماغ البشري، وبالتالي فهي خطيرة للغاية.
تقليل فرص الوظائف في كل المجالات
ومن رأى اقتصادي، يخشى الأب الروحي للذكاء الاصطناعي من أن هذه التكنولوجيا يمكن أن تعطل سوق العمل بشكل كبير، فقد يقول: “الذكاء الاصطناعي يقضي على العمل الشاق”، ثم اضاف أنه “من الممكن أن يقضي على ما هو أكثر من ذلك بكثير”، مما يؤثر على المترجمين والمساعدين الشخصيين على وجه الخصوص. فان القضاء على فرص العمل لن يسلم منها حتى الأكثر “ذكاء”، حتى وإن اعتقد بعضهم أنهم في مأمن من ذلك.
تهديد “الروبوتات القاتلة”
ومن وجهة نظر هذا الخبير أن التقدم التكنولوجي سريع للغاية، مقارنة بالوسائل المتاحة لدينا لتنظيم استخدام الذكاء الاصطناعي، ويعلق على ذلك قائلا: “لا أعتقد أنه ينبغى علينا الإسراع في ذلك حتى نفهم ما إذا كان بإمكاننا التحكم فيه”، فما يخشاه هذا الخبير هو أن تصبح الإصدارات المستقبلية عبارة عن “تهديدات للبشرية”.
تبعا لهينتون، ستكون أنظمة الذكاء الاصطناعي المستقبلية قادرة على تطوير سلوكيات لم تكن متوقعة بعد تحليل كمية كبيرة من البيانات، حيث أصبح هذا ممكنا، لأن أنظمة الذكاء الاصطناعي تولد الكود الخاص بها وتوجهه، مما سوف يحولها إلى “أسلحة مستقلة” و”روبوتات قاتلة”، بالرغم من أن العديد من الخبراء يقللون من شأن هذا التهديد.
الذكاء الاصطناعي في أيدي جهات خبيثة
و تبعا له، إن التهديد يأتي أيضا من إساءة استخدام الذكاء الاصطناعي من قبل الجهات الفاعلة الخطرة. وهو قلق من أنه “من الصعب معرفة كيفية منع الجهات السيئة من استخدامه لأغراض شريرة”. حيث يعارض هينتون بشكل خاص استخدام الذكاء الاصطناعي في المجال العسكري، وهو يخشى أساسا من تطوير البشر “للجنود الآليين”.