“بيل غيتس”: ماذا لو قرر الذكاء الاصطناعي عدم حاجته للبشر وأراد التخلص منا؟

“بيل غيتس”: ماذا لو قرر الذكاء الاصطناعي عدم حاجته للبشر وأراد التخلص منا؟

طرح الملياردير، والمؤسس المشاركة لشركة “مايكروسوفت”، بيل غيتس، العديد من التساؤلات حول أخطار الذكاء الاصطناعي، والتي وصفها بأنها قد تكون هائلة. مثل ماذا سيحدث للأشخاص الذين فقدوا وظائفهم بسبب آلة ذكية؟، وهل يمكن أن يؤثر الذكاء الاصطناعي على نتائج الانتخابات؟، وماذا لو قرر الذكاء الاصطناعي في المستقبل أنه لا يحتاج إلى البشر بعد الآن ويريد التخلص منا؟

ورغم عدالة التساؤلات، إلا أن “غيتس” أكد في مقال على موقعه الشخصي، بأنها ليست المرة الأولى التي يقدم فيها ابتكار رئيسي تهديدات جديدة يجب السيطرة عليها.

وسواء كان الأمر يتعلق بابتكار السيارات أو ظهور أجهزة الكمبيوتر الشخصية والإنترنت، فقد نجح الناس في المرور عبر لحظات تحويلية أخرى، وعلى الرغم من الكثير من الاضطرابات، فقد أصبحوا أفضل حالاً في النهاية. وبعد فترة وجيزة من ظهور السيارات الأولى على الطريق، كان هناك أول حادث سيارة. لكننا لم نحظر السيارات – فقد اعتمدنا حدود السرعة، ومعايير السلامة، ومتطلبات الترخيص، وقوانين القيادة تحت تأثير الكحول، وقواعد الطريق الأخرى.

ويرى “غيتس”، أننا حالياً في المرحلة الأولى من تغيير عميق آخر، وهو “عصر الذكاء الاصطناعي”. والذي يشبه تلك الأوقات غير المؤكدة قبل حدود السرعة وأحزمة الأمان. “كما يتغير الذكاء الاصطناعي بسرعة كبيرة لدرجة أنه ليس من الواضح بالضبط ما سيحدث بعد ذلك. نحن نواجه أسئلة كبيرة تثيرها الطريقة التي تعمل بها التكنولوجيا الحالية، والطرق التي يستخدمها الناس لسوء النية، والطرق التي سيغيرنا بها الذكاء الاصطناعي كمجتمع وكأفراد”.

وفي لحظة كهذه، من الطبيعي أن تشعر بعدم الاستقرار. لكن التاريخ يُظهر أنه من الممكن حل التحديات التي أحدثتها التقنيات الجديدة.

وكتب “غيتس” مقال سابق، حول كيف سيحدث الذكاء الاصطناعي ثورة في حياتنا. ويساعد في حل المشكلات – في الصحة والتعليم وتغير المناخ وغير ذلك – التي كانت تبدو مستعصية على الحل.

وقال: “شيء واحد واضح من كل ما تمت كتابته حتى الآن حول مخاطر الذكاء الاصطناعي – وكُتب الكثير – هو أنه لا أحد لديه كل الإجابات”. “شيء آخر واضح بالنسبة لي هو أن مستقبل الذكاء الاصطناعي ليس قاتماً كما يعتقد البعض أو وردياً كما يعتقد الآخرون. المخاطر حقيقية، لكني متفائل بإمكانية إدارتها”.

ويرى أنه قد يكون هناك حاجة إلى تكييف القوانين القديمة واعتماد قوانين جديدة – تماماً كما يجب أن تكون القوانين الحالية لمكافحة الاحتيال مخصصة لعالم الإنترنت.

مخاطر قريبة أكثر إلحاحاً

وكتب “غيتس”، أن هناك مخاطر حول الوصول للذكاء الاصطناعي الخارق، والذي قد يرسم أهدافه بشكل منفرد، وقد يتعارض بعضها مع أهداف البشرية، ولكن هذه الأسئلة قد لا يكون من المناسب الإجابة عليها الآن، خاصةً وأن عمليات التطوير قد تأخذ وقتاً أكثر مما نعتقد، لكن على جانب المخاطر الأكثر إلحاحاً، فقد يمكن أن يؤدي التزييف العميق والمعلومات الخاطئة الناتجة عن الذكاء الاصطناعي إلى تقويض الانتخابات والديمقراطية.

إذ أن فكرة إمكانية استخدام التكنولوجيا لنشر الأكاذيب ليست جديدة. حيث كان الناس يفعلون ذلك بالكتب والمنشورات لعدة قرون. وأصبح الأمر أسهل بكثير مع ظهور معالجات الكلمات وطابعات الليزر والبريد الإلكتروني والشبكات الاجتماعية.

وعلى نطاق أوسع، يمكن استخدام تقنية التزييف العميق الناتجة عن الذكاء الاصطناعي لمحاولة ترجيح الانتخابات. بالطبع، لا يتطلب الأمر تقنية متطورة لبث الشكوك حول الفائز الشرعي في الانتخابات، ولكن الذكاء الاصطناعي سيجعل الأمر أسهل.

وهناك بالفعل مقاطع فيديو مزيفة تعرض لقطات ملفقة لسياسيين معروفين. تخيل أنه في صباح يوم الانتخابات الكبرى، انتشر مقطع فيديو يظهر أحد المرشحين يسرق أحد البنوك. إنه مزيف، لكن الأمر يستغرق عدة ساعات من منافذ الأخبار والحملة لإثبات ذلك. كم عدد الأشخاص الذين سيشاهدونه ويغيرون أصواتهم في اللحظة الأخيرة؟ يمكن أن تقلب الموازين، على وجه الخصوص في انتخابات متقاربة.

وكتب غيتس: “لكن شيئين يجعلانني متفائلاً بحذر. أحدها أن الناس قادرون على تعلم ألا يأخذوا كل شيء في ظاهره”. “الشيء الآخر، هو أن الذكاء الاصطناعي يمكن أن يساعد في تحديد التزييف العميق وكذلك في إنشائها”.

شن الهجمات الإلكترونية

اليوم، عندما يرغب المتسللون في العثور على عيوب يمكن استغلالها في البرامج، فإنهم يفعلون ذلك بالقوة الغاشمة – كتابة التعليمات البرمجية التي تقضي على نقاط الضعف المحتملة حتى يكتشفوا طريقة للدخول. ويتضمن ذلك السير في الكثير من الأزقة العمياء، مما يعني أن الأمر يستغرق وقتاً والتحلي بالصبر.

ويجب على خبراء الأمن الذين يريدون مواجهة المتسللين أن يفعلوا الشيء نفسه. ويمثل كل برنامج تصحيح تقوم بتثبيته على هاتفك أو جهاز الكمبيوتر المحمول الخاص بك عدة ساعات من البحث، من قبل الأشخاص ذوي النوايا الحسنة والسيئة على حد سواء.

لكن نماذج الذكاء الاصطناعي ستعمل على تسريع هذه العملية من خلال مساعدة المتسللين على كتابة تعليمات برمجية أكثر فعالية. وسيتمكنون أيضاً من استخدام المعلومات العامة حول الأفراد، مثل مكان عملهم ومن هم أصدقاؤهم، لتطوير هجمات تصيد أكثر تقدماً من تلك التي نراها اليوم.

والخبر السار وفقاً لـ “غيتس”، هو أنه يمكن استخدام الذكاء الاصطناعي للأغراض الجيدة وكذلك للأغراض السيئة. إذ ستحتاج فرق الأمن الحكومية والقطاع الخاص إلى امتلاك أحدث الأدوات للعثور على الثغرات الأمنية وإصلاحها قبل أن يتمكن المجرمون من الاستفادة منها.

وقال غيتس، لهذا السبب أيضاً لا يجب أن نحاول منع الناس مؤقتاً من تنفيذ التطورات الجديدة في الذكاء الاصطناعي، كما اقترح البعض. لن يتوقف مجرمو الإنترنت عن صنع أدوات جديدة

هناك خطر ذو صلة على المستوى العالمي: سباق تسلح للذكاء الاصطناعي يمكن استخدامه لتصميم وشن هجمات إلكترونية ضد دول أخرى. تريد كل حكومة أن تمتلك أقوى التقنيات حتى تتمكن من ردع الهجمات من خصومها. وقد يؤدي هذا الحافز إلى عدم السماح لأي شخص بالمضي قدماً إلى سباق لإنشاء أسلحة إلكترونية خطيرة بشكل متزايد. سيكون الجميع أسوأ حالاً.

وعلى الرغم من أن الفكرة مخيفة، لكن “غيتس” يرى أن لدينا تاريخ يرشدنا. فعلى الرغم من أن نظام حظر انتشار الأسلحة النووية في العالم له عيوبه، إلا أنه منع الحرب النووية الشاملة التي كان “جيله” يخاف منها. ويجب على الحكومات التفكير في إنشاء هيئة عالمية للذكاء الاصطناعي مماثلة للوكالة الدولية للطاقة الذرية.

سلب الوظائف

وفي السنوات القليلة المقبلة، سيكون التأثير الرئيسي للذكاء الاصطناعي على العمل هو مساعدة الأشخاص على أداء وظائفهم بشكل أكثر كفاءة.

لكن من الصحيح أن بعض العمال سيحتاجون إلى الدعم وإعادة التدريب، وهذا دور الحكومات والشركات، ويجب إدارته جيداً حتى لا يتخلف العمال عن الركب – ولتجنب هذا النوع من الاضطراب في حياة الناس الذي حدث أثناء تراجع وظائف التصنيع في الولايات المتحدة.

ضع في اعتبارك أيضاً أن هذه ليست المرة الأولى التي تتسبب فيها تقنية جديدة في حدوث تحول كبير في سوق العمل. إذ لا يعتقد “غيتس” أن تأثير الذكاء الاصطناعي سيكون دراماتيكياً مثل الثورة الصناعية، لكنه بالتأكيد سيكون بحجم إدخال الكمبيوتر الشخصي.

هلاوس الذكاء الاصطناعي

وعادة ما تحدث الهلوسة – المصطلح الذي يطلق على الذكاء الاصطناعي بثقة ادعاءً غير صحيح – لأن الجهاز لا يفهم سياق طلبك. فإذا طلبت من الذكاء الاصطناعي كتابة قصة قصيرة حول قضاء إجازة على القمر، قد يمنحك إجابة خيالية للغاية. لكن اطلب منه مساعدتك في التخطيط لرحلة إلى تنزانيا، وقد يحاول إرسالك إلى فندق غير موجود.

بالإضافة إلى خطر آخر، وهو أنه يعكس أو حتى يفاقم التحيزات القائمة ضد أشخاص من هويات وأعراق معينة، وما إلى ذلك.

ولفهم سبب حدوث الهلوسة والتحيزات، من المهم معرفة كيفية عمل نماذج الذكاء الاصطناعي الأكثر شيوعاً اليوم. إنها في الأساس إصدارات معقدة للغاية من الشفرة التي تسمح لتطبيق البريد الإلكتروني الخاص بك بالتنبؤ بالكلمة التالية التي ستكتبها: فهي تفحص كميات هائلة من النص – تقريباً كل شيء متاح عبر الإنترنت، في بعض الحالات – ويحللها للعثور على أنماط في لغة بشرية.

وضرب “غيتس” مثالاً: “إذا كتبت للذكاء الاصطناعي أنه ارتكب خطأ، فقد يقول آسف، لقد أخطأت في كتابة ذلك”. لكن هذه هلوسة – إذ لم تكتب له أي شيء قبل اتهامه بالخطأ. ولكن هذه البرمجيات ترد بإجابات تم فحص نصوصاً كافية لتعرف أن “آسف، لقد أخطأت في كتابة ذلك” هي جملة يكتبها الناس غالباً بعد أن يصححها شخص ما.

وبالمثل، ترث نماذج الذكاء الاصطناعي أي تحيزات يتم دمجها في النص الذي تم تدريبهم عليه. إذا قرأ المرء كثيراً عن الأطباء على سبيل المثال، وكان النص يذكر في الغالب عن الأطباء الذكور، فإن إجاباته ستفترض أن معظم الأطباء من الرجال.

على الرغم من أن بعض الباحثين يعتقدون أن الهلوسة مشكلة متأصلة، إلا أنني لا أتفق معها. أنا متفائل بأنه، بمرور الوقت، يمكن تعليم نماذج الذكاء الاصطناعي التمييز بين الحقيقة والخيال.

أخيراً، يجب على كل شخص يستخدم الذكاء الاصطناعي أن يكون على دراية بمشكلة التحيز وأن يصبح مستخدماً مطلعاً. قد يكون المقال الذي تطلب من الذكاء الاصطناعي صياغته مليئاً بالأحكام المسبقة كما هو الحال مع الأخطاء الواقعية. وستحتاج إلى التحقق من انحيازات الذكاء الاصطناعي لديك وكذلك تحيزاتك.

ماذا بعد؟

أعتقد أن هناك أسباباً أكثر من عدم التفاؤل بأننا نستطيع إدارة مخاطر الذكاء الاصطناعي مع تعظيم فوائدها. لكننا بحاجة إلى التحرك بسرعة.

تحتاج الحكومات إلى بناء الخبرة في مجال الذكاء الاصطناعي حتى تتمكن من وضع قوانين ولوائح مستنيرة تستجيب لهذه التكنولوجيا الجديدة. كما سيحتاجون إلى التعامل مع المعلومات المضللة والتزييف العميق والتهديدات الأمنية والتغييرات في سوق العمل والتأثير على التعليم.

وفي القطاع الخاص، تحتاج شركات الذكاء الاصطناعي إلى متابعة عملها بأمان ومسؤولية. يتضمن ذلك حماية خصوصية الأشخاص، والتأكد من أن نماذج الذكاء الاصطناعي الخاصة بهم تعكس القيم الإنسانية الأساسية، وتقليل التحيز، ونشر الفوائد لأكبر عدد ممكن من الناس، ومنع استخدام التكنولوجيا من قبل المجرمين أو الإرهابيين. كما ستحتاج الشركات في العديد من قطاعات الاقتصاد إلى مساعدة موظفيها على الانتقال إلى مكان عمل يركز على الذكاء الاصطناعي حتى لا يتخلف أحد عن الركب. ويجب أن يعرف العملاء دائماً متى يتفاعلون مع ذكاء اصطناعي وليس مع إنسان.

الرابط المختصر لهذا الموضوع هو : https://egyptianksa.com/le5t
0 0 votes
تقييمك
التنبيهات
نبّهني عن
guest

0 تعليقات
Inline Feedbacks
View all comments