فوائد ومخاطر الذكاء الاصطناعي
"كل شيء نحبه في الحضارة هو نتاج للذكاء ، لذا فإن تضخيم ذكائنا البشري بالذكاء الاصطناعي لديه القدرة على مساعدة الحضارة على الازدهار كما لم يحدث من قبل - طالما نجحنا في الحفاظ على التكنولوجيا مفيدة".
ما هو الذكاء الاصطناعي؟
من SIRI إلى السيارات ذاتية القيادة ، يتقدم الذكاء الاصطناعي (AI) بسرعة. في حين أن الخيال العلمي غالبًا ما يصور الذكاء الاصطناعي على أنه روبوتات ذات خصائص تشبه الإنسان ، يمكن أن يشمل الذكاء الاصطناعي أي شيء من خوارزميات بحث Google إلى Watson من IBM إلى الأسلحة المستقلة.
يُعرف الذكاء الاصطناعي اليوم بشكل صحيح باسم الذكاء الاصطناعي الضيق (أو الذكاء الاصطناعي الضعيف) ، لأنه مصمم لأداء مهمة ضيقة (على سبيل المثال فقط التعرف على الوجه أو عمليات البحث على الإنترنت فقط أو قيادة السيارة فقط). ومع ذلك ، فإن الهدف الطويل الأمد للعديد من الباحثين هو إنشاء ذكاء اصطناعي عام (AGI أو ذكاء اصطناعي قوي). في حين أن الذكاء الاصطناعي الضيق قد يتفوق على البشر في أي مهمة محددة ، مثل لعب الشطرنج أو حل المعادلات ، فإن AGI سيتفوق على البشر في كل مهمة معرفية تقريبًا.
كيف يمكن أن يكون الذكاء الاصطناعي خطراً؟
يتفق معظم الباحثين على أن الذكاء الاصطناعي فائق الذكاء من غير المحتمل أن يُظهر عواطف بشرية مثل الحب أو الكراهية ، وأنه لا يوجد سبب لتوقع أن يصبح الذكاء الإصطناعي خيريًا أو خبيثًا عن قصد. وبدلاً من ذلك ، عند التفكير في كيفية تحول الذكاء الاصطناعي إلى خطر ، يعتقد الخبراء سيناريوهان على الأرجح:
1.منظمة العفو الدولية مبرمجة للقيام بشيء مدمر: الأسلحة المستقلة هي أنظمة ذكاء اصطناعي مبرمجة للقتل. في أيدي الشخص الخطأ ، يمكن أن تتسبب هذه الأسلحة بسهولة في وقوع إصابات جماعية. علاوة على ذلك ، يمكن أن يؤدي سباق التسلح لمنظمة العفو الدولية عن غير قصد إلى حرب الذكاء الاصطناعي التي تؤدي أيضًا إلى خسائر كبيرة في الأرواح. لتجنب إحباط العدو ، سيتم تصميم هذه الأسلحة بحيث يكون من الصعب للغاية "إيقاف تشغيلها" ، لذا يمكن أن يفقد البشر السيطرة على مثل هذا الموقف. هذا الخطر موجود حتى مع الذكاء الاصطناعي الضيق ، ولكنه ينمو مع زيادة مستويات ذكاء الذكاء الاصطناعي والاستقلالية.
2.تمت برمجة الذكاء الاصطناعي للقيام بشيء مفيد ، لكنه يطور طريقة مدمرة لتحقيق هدفه: يمكن أن يحدث هذا عندما نفشل في مواءمة أهداف الذكاء الاصطناعي بالكامل مع أهدافنا ، وهو أمر صعب للغاية. إذا طلبت من سيارة ذكية مطيعة أن تأخذك إلى المطار في أسرع وقت ممكن ، فقد تجعلك هناك تطاردك المروحيات ومغطاة بالقيء ، ولا تفعل ما تريد ولكن حرفيا ما طلبته. إذا تم تكليف نظام فائق الذكاء بمشروع هندسة جغرافية طموح ، فقد يلحق الخراب بنظامنا البيئي كأثر جانبي ، وينظر إلى محاولات الإنسان لوقفه كتهديد يجب مواجهته.
كما توضح هذه الأمثلة ، فإن القلق بشأن الذكاء الاصطناعي المتقدم ليس الحقد وإنما الكفاءة. سيكون الذكاء الاصطناعي فائق الذكاء جيدًا للغاية في تحقيق أهدافه ، وإذا لم تتوافق هذه الأهداف مع أهدافنا ، فإننا نواجه مشكلة. أنت لست على الأرجح مضادًا للكراهية الشرير الذي يخرج النمل من الخبث ، ولكن إذا كنت مسؤولًا عن مشروع للطاقة الخضراء الكهرومائية وهناك نمل في المنطقة يمكن إغراقه ، فهذا سيئ جدًا للنمل. الهدف الرئيسي لأبحاث سلامة الذكاء الاصطناعي هو عدم وضع البشرية في موقع هؤلاء النمل.
لماذا البحث عن سلامة الذكاء الاصطناعي؟
على المدى القريب ، يحفز هدف الحفاظ على تأثير الذكاء الاصطناعي على المجتمع المفيد البحث في العديد من المجالات ، من الاقتصاد والقانون إلى الموضوعات الفنية مثل التحقق ، والصلاحية ، والأمن ، والتحكم. في حين أنه قد يكون أكثر من مجرد إزعاج طفيف إذا تعطل جهاز الكمبيوتر المحمول أو تعرض للاختراق ، يصبح من المهم أكثر أن يقوم نظام الذكاء الاصطناعي بما تريده أن يفعله إذا كان يتحكم في سيارتك أو طائرتك أو جهاز تنظيم ضربات القلب أو التداول الآلي الخاص بك النظام أو شبكة الكهرباء الخاصة بك. ثمة تحدٍ آخر قصير المدى يتمثل في منع سباق التسلح المدمر في الأسلحة الفتاكة المستقلة.
على المدى الطويل ، السؤال المهم هو ماذا سيحدث إذا نجح البحث عن الذكاء الاصطناعي القوي وأصبح نظام الذكاء الاصطناعي أفضل من البشر في جميع المهام المعرفية. كما أشار IJ. جيد في عام 1965 ، تصميم أنظمة الذكاء الاصطناعي الأكثر ذكاءً هو في حد ذاته مهمة معرفية. يمكن أن يخضع مثل هذا النظام إلى تحسين ذاتي متكرر ، مما يؤدي إلى انفجار استخباراتي يترك العقل البشري بعيدًا. من خلال اختراع تقنيات ثورية جديدة ، قد يساعدنا هذا الذكاء الفائق على القضاء على الحرب والمرض والفقر ، وبالتالي قد يكون إنشاء الذكاء الاصطناعي القوي أكبر حدث في تاريخ البشرية. على الرغم من ذلك ، أعرب بعض الخبراء عن قلقهم من أنه قد يكون الأخير أيضًا ، ما لم نتعلم مواءمة أهداف الذكاء الاصطناعي مع أهدافنا قبل أن تصبح فائقة الذكاء.
هناك بعض الذين يتساءلون عما إذا كان سيتم تحقيق الذكاء الاصطناعي القوي على الإطلاق ، والبعض الآخر الذي يصر على أن إنشاء الذكاء الاصطناعي الفائق الذكاء سيكون مفيدًا. في FLI نحن ندرك كل من هذه الاحتمالات ، ولكننا ندرك أيضًا إمكانية أن يتسبب نظام الذكاء الاصطناعي في إحداث ضرر كبير عن قصد أو عن غير قصد. نعتقد أن البحث اليوم سيساعدنا على الاستعداد بشكل أفضل لهذه العواقب السلبية المحتملة ومنعها في المستقبل ، وبالتالي الاستمتاع بفوائد الذكاء الاصطناعي مع تجنب المزالق.
على المدى الطويل ، السؤال المهم هو ماذا سيحدث إذا نجح البحث عن الذكاء الاصطناعي القوي وأصبح نظام الذكاء الاصطناعي أفضل من البشر في جميع المهام المعرفية. كما أشار IJ. جيد في عام 1965 ، تصميم أنظمة الذكاء الاصطناعي الأكثر ذكاءً هو في حد ذاته مهمة معرفية. يمكن أن يخضع مثل هذا النظام إلى تحسين ذاتي متكرر ، مما يؤدي إلى انفجار استخباراتي يترك العقل البشري بعيدًا. من خلال اختراع تقنيات ثورية جديدة ، قد يساعدنا هذا الذكاء الفائق على القضاء على الحرب والمرض والفقر ، وبالتالي قد يكون إنشاء الذكاء الاصطناعي القوي أكبر حدث في تاريخ البشرية. على الرغم من ذلك ، أعرب بعض الخبراء عن قلقهم من أنه قد يكون الأخير أيضًا ، ما لم نتعلم مواءمة أهداف الذكاء الاصطناعي مع أهدافنا قبل أن تصبح فائقة الذكاء.
هناك بعض الذين يتساءلون عما إذا كان سيتم تحقيق الذكاء الاصطناعي القوي على الإطلاق ، والبعض الآخر الذي يصر على أن إنشاء الذكاء الاصطناعي الفائق الذكاء سيكون مفيدًا. في FLI نحن ندرك كل من هذه الاحتمالات ، ولكننا ندرك أيضًا إمكانية أن يتسبب نظام الذكاء الاصطناعي في إحداث ضرر كبير عن قصد أو عن غير قصد. نعتقد أن البحث اليوم سيساعدنا على الاستعداد بشكل أفضل لهذه العواقب السلبية المحتملة ومنعها في المستقبل ، وبالتالي الاستمتاع بفوائد الذكاء الاصطناعي مع تجنب المزالق.
لماذا الاهتمام الأخير بسلامة الذكاء الاصطناعي
أعرب ستيفن هوكينج وإيلون موسك وستيف فوزنياك وبيل جيتس والعديد من الأسماء الكبيرة الأخرى في مجال العلوم والتكنولوجيا عن قلقهم مؤخرًا في وسائل الإعلام وعبر رسائل مفتوحة حول المخاطر التي يشكلها الذكاء الاصطناعي ، انضم إليها العديد من الباحثين البارزين في الذكاء الاصطناعي. لماذا الموضوع فجأة في عناوين الصحف؟
لطالما اعتبرت فكرة نجاح البحث عن ذكاء اصطناعي قوي كخيال علمي ، أو قرونًا أو أكثر. ومع ذلك ، وبفضل الاختراقات الأخيرة ، تم الوصول إلى العديد من معالم الذكاء الاصطناعي ، التي اعتبرها الخبراء على بعد عقود فقط قبل خمس سنوات ، مما يجعل العديد من الخبراء يأخذون على محمل الجد إمكانية الذكاء الفائق في حياتنا. في حين أن بعض الخبراء لا يزالون يعتقدون أن الذكاء الاصطناعي على مستوى الإنسان على بعد قرون ، فإن معظم أبحاث الذكاء الاصطناعي في مؤتمر بورتوريكو لعام 2015 قد خمنوا أنه سيحدث قبل عام 2060. نظرًا لأن الأمر قد يستغرق عقودًا لإكمال أبحاث السلامة المطلوبة ، فمن الحكمة البدء بها الآن .
لأن الذكاء الاصطناعي لديه القدرة على أن يصبح أكثر ذكاء من أي إنسان ، ليس لدينا طريقة مؤكدة للتنبؤ بكيفية تصرفه. لا يمكننا استخدام التطورات التكنولوجية السابقة كأساس لأننا لم نقم أبدًا بإنشاء أي شيء لديه القدرة ، عن قصد أو عن غير قصد ، على التفوق علينا. أفضل مثال على ما يمكن أن نواجهه قد يكون تطورنا. يتحكم الناس الآن في هذا الكوكب ، ليس لأننا الأقوى أو الأسرع أو الأكبر ، ولكن لأننا الأذكى. إذا لم نعد الأذكى ، فهل نحن على ثقة من بقائنا في السيطرة؟
موقف FLI هو أن حضارتنا سوف تزدهر طالما أننا نفوز بالسباق بين القوة المتنامية للتكنولوجيا والحكمة التي نديرها بها. في حالة تقنية الذكاء الاصطناعي ، فإن موقف FLI هو أن أفضل طريقة للفوز بهذا السباق ليست لإعاقة الأول ، ولكن لتسريع الأخير ، من خلال دعم أبحاث السلامة بالذكاء الاصطناعي.
لطالما اعتبرت فكرة نجاح البحث عن ذكاء اصطناعي قوي كخيال علمي ، أو قرونًا أو أكثر. ومع ذلك ، وبفضل الاختراقات الأخيرة ، تم الوصول إلى العديد من معالم الذكاء الاصطناعي ، التي اعتبرها الخبراء على بعد عقود فقط قبل خمس سنوات ، مما يجعل العديد من الخبراء يأخذون على محمل الجد إمكانية الذكاء الفائق في حياتنا. في حين أن بعض الخبراء لا يزالون يعتقدون أن الذكاء الاصطناعي على مستوى الإنسان على بعد قرون ، فإن معظم أبحاث الذكاء الاصطناعي في مؤتمر بورتوريكو لعام 2015 قد خمنوا أنه سيحدث قبل عام 2060. نظرًا لأن الأمر قد يستغرق عقودًا لإكمال أبحاث السلامة المطلوبة ، فمن الحكمة البدء بها الآن .
لأن الذكاء الاصطناعي لديه القدرة على أن يصبح أكثر ذكاء من أي إنسان ، ليس لدينا طريقة مؤكدة للتنبؤ بكيفية تصرفه. لا يمكننا استخدام التطورات التكنولوجية السابقة كأساس لأننا لم نقم أبدًا بإنشاء أي شيء لديه القدرة ، عن قصد أو عن غير قصد ، على التفوق علينا. أفضل مثال على ما يمكن أن نواجهه قد يكون تطورنا. يتحكم الناس الآن في هذا الكوكب ، ليس لأننا الأقوى أو الأسرع أو الأكبر ، ولكن لأننا الأذكى. إذا لم نعد الأذكى ، فهل نحن على ثقة من بقائنا في السيطرة؟
موقف FLI هو أن حضارتنا سوف تزدهر طالما أننا نفوز بالسباق بين القوة المتنامية للتكنولوجيا والحكمة التي نديرها بها. في حالة تقنية الذكاء الاصطناعي ، فإن موقف FLI هو أن أفضل طريقة للفوز بهذا السباق ليست لإعاقة الأول ، ولكن لتسريع الأخير ، من خلال دعم أبحاث السلامة بالذكاء الاصطناعي.
أهم الأساطير حول الذكاء الاصطناعي المتقدم
تدور محادثة آسرة حول مستقبل الذكاء الاصطناعي وماذا / يجب أن تعني للبشرية. هناك خلافات رائعة حيث يختلف كبار الخبراء في العالم ، مثل: تأثير الذكاء الاصطناعي في المستقبل على سوق العمل ؛ إذا / متى سيتم تطوير الذكاء الاصطناعي على مستوى الإنسان ؛ ما إذا كان هذا سيؤدي إلى انفجار استخباراتي ؛ وما إذا كان هذا شيء يجب أن نرحب به أو نخافه. ولكن هناك أيضًا العديد من الأمثلة على الخلافات الزائفة المملة التي يسببها سوء فهم الأشخاص والتحدث عن بعضهم البعض. لمساعدة أنفسنا في التركيز على الخلافات المثيرة للاهتمام والأسئلة المفتوحة - وليس على سوء الفهم - فلنوضح بعضًا من الأساطير الأكثر شيوعًا.
إرسال تعليق