جنرال لواء

لماذا نخاف جدا من الروبوتات؟ 15 خبيرًا يزنون ما هي المخاطر الحقيقية


سواء كنت متحمسًا لذلك أم لا ، فإن الروبوتات والذكاء الاصطناعي جزء لا مفر منه من المستقبل الذي نقترب منه بسرعة. بفضل الكتب والأفلام المليئة بالذكاء الاصطناعي المارقة والروبوتات الخبيثة ، يشعر بعض الناس بالخوف قليلاً من احتمال تجاوز هذه التقنيات للعالم.

إنهم ليسوا وحدهم ، حيث أن العديد من الخبراء عبر مجالات متنوعة مثل التكنولوجيا والاقتصاد يعبرون أيضًا عن مخاوفهم من صعود الروبوتات. في حين أن هذه المخاوف صحيحة بالتأكيد ، من المهم ملاحظة أن هذه المخاوف يتم التعبير عنها على أمل أن التكنولوجيا يمكن تحسينها ، وليس حظرها.

فيما يلي بعض المخاوف الملحة المتعلقة بالروبوتات والذكاء الاصطناعي التي يرغب الخبراء في معالجتها قبل بدء العصر الجديد للتكنولوجيا.

1. "أعتقد أن الأسلحة المستقلة مخيفة للغاية" - جيف بيزوس

أوضح رئيس أمازون ، جيف بيزوس ، وجهة نظره عندما يتعلق الأمر بخطورة الأتمتة. على الرغم من أنه لا يعتقد أن الأتمتة تمثل أي تهديد للوظائف البشرية أو الحياة ، إلا أنه أقل ثقة بشأن الأسلحة المستقلة.

خلال منتدى جورج دبليو بوش الرئاسي الشهر الماضي حول القيادة ، اقترح بيزوس أنه ستكون هناك حاجة إلى معاهدات دولية تحكم استخدام الأسلحة المستقلة. ويعتقد أن هذه المعاهدات ستنظم استخدام مثل هذه الأسلحة وتمنع القرصنة وإساءة استخدام التكنولوجيا.

2. "تتمتع الأجهزة الذكية في الوقت الحالي بالقدرة على الاتصال ، وعلى الرغم من أننا نعتقد أنه يمكننا مراقبتها ، إلا أننا لا نملك أي وسيلة لمعرفة ذلك." - الأستاذ كيفين وارويك

تحدث نائب نائب رئيس الأبحاث بجامعة كوفنتري ، وما يسمى ب "أستاذ سايبورغ" ، كيفين وارويك عن قلقه بشأن التواصل بين A. في عام 2017 ، عندما طور اثنان من الروبوتات التي أنشأها Facebook لغتهما الخاصة وتواصلوا بطريقة لا يمكن فهمها لمبدعيهم ، كان هناك قلق بشأن الذكاء الاصطناعي. بدأ التواصل على السطح.

بينما أشار وارويك إلى أهمية مثل هذا الحدث ، سارع إلى تحذير الآخرين من الآثار الإضافية المترتبة على الاتصالات غير الخاضعة للرقابة والتي تتطور بشكل مستقل خارج نطاق العلماء والمهندسين.

من الواضح أن Facebook وافق على التجربة وأغلقها بمجرد أن أدركوا أن الروبوتات كانت تتحدث بطريقة أبقت البشر خارج الحلقة.

لضمان الاستخدام الآمن للذكاء الاصطناعي ، تعد المراقبة البشرية لتفاعلاتهم أمرًا ضروريًا ، وهو أمر سيحذر العديد من العلماء الآن من المضي قدمًا.

3. "[الذكاء الاصطناعي] يمكن أن يتخذ قرارات غير عادلة وتمييزية ، ويكرر التحيزات أو يطورها ، ويتصرف بطرق غامضة وغير متوقعة في بيئات شديدة الحساسية تعرض مصالح الإنسان وسلامته للخطر". - ساندرا واتشتر ، برنت ميتلستادت ، ولوتشيانو فلوريدي

حذرت ورقة بحثية عام 2017 أعدها الباحثون ساندرا واتشتر وبرنت ميتلشتات ولوتشيانو فلوريدي من أن أحد أكبر المخاوف المتعلقة بالذكاء الاصطناعي. ليست في الواقع التكنولوجيا نفسها ، ولكن التحيزات التي ننقلها إليها. اقترحوا أنه من أجل إنشاء تقنية يمكن أن تخدم وتحمي البشرية بشكل كافٍ ، يجب أن تكون خالية من التحيزات التي نمتلكها كبشر.

لقد أعربوا عن مخاوفهم بشأن الروبوتات الأمنية التي يمكنها الإبلاغ عن الحوادث إلى السلطات ، وما إذا كانت هذه الروبوتات ستتم برمجتها بنفس التحيزات العرقية التي نراها عبر بعض جوانب تطبيق القانون البشري. من أجل إنشاء تقنية آمنة ، علينا أولاً فحص العلل الاجتماعية الخاصة بنا ، حتى لا نمررها إلى أجهزتنا.

4. "تطوير الذكاء الاصطناعي الكامل يمكن أن يعني نهاية الجنس البشري." - ستيفن هوكينج

تحدث الراحل ستيفن هوكينج بصراحة وبشكل متكرر عن مخاوفه المحيطة بالتطورات في مجال الروبوتات والذكاء الاصطناعي. التقنيات طوال حياته. غالبًا ما أعرب عن اعتقاده بأن A.I. سيصبح في النهاية متقدمًا لدرجة أنه سيحل محل كل حياة بشرية.

كان يعتقد أن A.I. سيصل في النهاية إلى نقطة من التعقيد أنه سيكون قادرًا على تحديث نفسه والتطور دون تدخل بشري. على الرغم من أننا بعيدون جدًا عن الأنظمة التي يمكنها إدارة هذا المستوى من الذكاء ، إلا أنه يستحق اعتبارًا من المهندسين الذين يبتكرون تقنيات الغد.

5. "يُعد الذكاء الاصطناعي خطرًا أساسيًا على وجود الحضارة الإنسانية بطريقة لم تكن بها حوادث السيارات أو حوادث الطائرات أو الأدوية المعيبة أو الطعام السيئ." - إيلون موسك

في حين أن Elon Musk هو بلا شك في طليعة العديد من التقنيات المتطورة والمبتكرة ، فإن هذا لا يعني أنه ليس لديه مخاوفه الخاصة بشأن تطورات الذكاء الاصطناعي. والتكنولوجيا المستقلة. في الواقع ، يعتقد أن A.I. يمكن أن يمثل تهديدًا حقيقيًا لاستمرار بقاء الجنس البشري.

ومؤخرا في الشهر الماضي ، حذر من أن التطورات الفلكية في الذكاء الاصطناعي. يمكن أن يرى البشر مستعبدين بواسطة الآلات في المستقبل. في الفيلم الوثائقيهل تثق بهذا الكمبيوتر؟حتى أن ماسك ذهب إلى حد القول بأنه يعتقد أن آلات فائقة الذكاء ستظهر في غضون السنوات الخمس المقبلة. نأمل أن تتم معالجة مخاوف Musk والآخرين ، ولن نضطر إلى القلق بشأن أي مواقف Skynet-esque في أي وقت قريب.

6. "أنا قلق للغاية ليس بشأن الذكاء الاصطناعي الذكي ولكن بشأن الذكاء الاصطناعي الغبي." - توبي والش

شهد العام الماضي توقيع توني والش أستاذ الذكاء الاصطناعي بجامعة نيو ساوث ويلز على عريضة إلى الأمم المتحدة تدعو إلى فرض حظر على "الروبوتات القاتلة". ووقع العريضة أيضًا أمثال إيلون ماسك ومصطفى سليمان من شركة جوجل ديب مايند وعلماء وأكاديميين آخرين من جميع أنحاء العالم.

على الرغم من دعمه للالتماس ، أوضح والش أن خوفه الحقيقي ليس من الذكاء الخارق للذكاء الاصطناعي. لكن "الذكاء الاصطناعي الغبي" يُمارس دون ضمير أو مراعاة العواقب.

إنه يعتقد أنه إذا أردنا الاستمرار في سباقنا نحو روبوتات وذكاء اصطناعي أفضل ، فمن الضروري أن نأخذ في الاعتبار كل احتمال ونخطط وفقًا لذلك لضمان سلامة البشر.

7. "من المهم أن نتحلى بالشفافية بشأن بيانات التدريب التي نستخدمها ، وأن نبحث عن التحيزات الخفية فيها ، وإلا فإننا نبني أنظمة متحيزة." - جون جياناندريا

خبير آخر يحذر من تأثير التحيزات البشرية على تكنولوجيا الغد هو جون جياناندريا من Google. إنه مجرد واحد من فصيل متزايد باطراد من العلماء والأكاديميين والمهندسين الذين يخشون التحيزات التي نبرمجها في تقنيتنا.

على وجه الخصوص ، يدعو جاناندريا إلى الشفافية الكاملة في التقنيات الذكية لاستخدامها في اتخاذ القرارات الطبية. يحذر الناس من الثقة في تقنيات الصندوق الأسود الذكية دون الكشف الكامل عن كيفية عملهم أو أنظمة التعلم العميق التي تقف وراءها.

8. "" المشكلة ليست في الوعي ، بل الكفاءة. أنت تصنع آلات ذات كفاءة عالية في تحقيق الأهداف وستتسبب في وقوع حوادث أثناء محاولة تحقيق تلك الأهداف. " - ستيوارت راسل

يعتقد نائب رئيس مجلس المنتدى الاقتصادي العالمي للروبوتات والذكاء الاصطناعي ، ستيوارت راسل ، أن إحدى أكبر المشكلات التي يجب علينا حلها عندما يتعلق الأمر بالذكاء الاصطناعي. والتكنولوجيات المستقلة هي كيف تكون مدفوعة بالهدف وما هي قادرة على القيام به من أجل تحقيق هذا الهدف.

في عام 2016 ، طرح القضية ، مستخدمًا مثال سيارة ذاتية القيادة عالقة عند إشارة حمراء. إذا تمكنت السيارة من اختراق نظام المرور وتحويل الضوء إلى اللون الأخضر ، مما يسمح لها بإكمال هدفها ، فقد يؤدي ذلك إلى تعريض الأرواح للخطر.

بالنسبة إلى راسل وكثيرين غيره ، لا يكفي مجرد ضمان أن الروبوتات ستحمي حياة البشر بشكل مباشر - يجب أن نعلمهم حماية الأرواح بشكل غير مباشر أيضًا. في الوقت الحالي ، تتسم طبيعة البرمجة الصارمة القائمة على الهدف بالعديد من النقاط العمياء ، والتي يمكن أن تمهد الطريق للمخاطر على حياة البشر إذا تركت دون رادع.

9. "يظهر بحثنا دليلاً على أنه حتى الروبوتات غير العسكرية يمكن استخدامها كسلاح لإحداث ضرر." - سيزار سيرودو ولوكاس أبا

حذر باحثون من شركة الأمن السيبراني IOActive الشركات المصنعة لتقنيات الأمن المنزلي العام الماضي من نقاط الضعف في أنظمتهم. ذهب الباحثون ، سيزار سيرودو ولوكاس أبا ، إلى حد اقتراح أن الروبوتات التي يفترض أنها غير ضارة في المنزل يمكن أن يستخدمها المتسللون كسلاح.

إنهم يدعون إلى زيادة الأمن في الروبوتات المنزلية والذكاء الاصطناعي قبل أن تصبح شائعة ، وإلا فإن المنازل في جميع أنحاء العالم قد تجعل نفسها عرضة للهجوم. ومع ذلك ، فإن المشكلة لا تؤثر فقط على المنازل. تم العثور أيضًا على الروبوتات الصناعية في المصانع لتكون عرضة للقرصنة ، مما يعني أن خطوط الإنتاج وجودة مخرجاتها يمكن أن تتعرض لخطر كبير.

10. "يمكن استخدام تقنيات التحسين المتقدمة والأنماط التي يمكن التنبؤ بها في سلوك استراتيجيات التداول الآلي من قبل المطلعين أو من قبل مجرمي الإنترنت للتلاعب بأسعار السوق." - مارك كارني

القطاع المالي هو أحد الصناعات التي لا ترتبط عادةً بالروبوتات ، لكن الشخصيات البارزة في التمويل تتحدث الآن عن مخاوفها بشأن الأتمتة. حذر محافظ بنك إنجلترا ، ورئيس مجلس الاستقرار المالي ، مارك كارني ، من أن الأتمتة في القطاع المالي قد تسمح للقراصنة بالتلاعب بالاقتصاد.

تشير التقديرات إلى أنه بحلول عام 2025 ، سيفقد 230 ألف عامل في الشركات المالية العالمية وظائفهم لصالح الذكاء الاصطناعي. ومع ذلك ، يحذر كارني و FSB من أن الاعتماد على التقنيات الجديدة إلى هذه الدرجة قد يجعل النظام المالي العالمي عرضة للهجمات الإلكترونية.

11. "إنه لأمر سيء حقًا أن يكون لدى الناس عمومًا خوف أكبر من خوفهم مما سيفعله الابتكار أكثر من حماسهم." - بيل جيتس

يبدو أن مؤسس شركة Microsoft ، بيل جيتس ، يتخذ موقفًا مفاده أنه ليس لدينا ما نخشاه سوى الخوف من نفسه. على الرغم من اتفاق جيتس مع العديد من مخاوف Elon Musk المتعلقة بالروبوتات والذكاء الاصطناعي ، فقد أعرب أيضًا عن رأيه بأن الناس بحاجة إلى التعامل مع التطورات التكنولوجية بحماس وليس خوفًا صريحًا.

بينما يعترف غيتس بمخاوفه بشأن الذكاء الخارق ، يبدو أنه يعتقد أنه إذا خططنا وفقًا لذلك وعالجنا هذه المخاوف مسبقًا ، فلن يكون لدى الجنس البشري ما يدعو للقلق.

12. "التشويه الكارثي للاقتصاد من قبل الذكاء الاصطناعي المصمم لكسب المال لأصحابها." - الدكتور أندراس كورناي والدكتور دانيال بيرلينت

أجرت TechEmergence العام الماضي دراسة استقصائية على كبار الباحثين والعلماء في مجالات الروبوتات والذكاء الاصطناعي ، لمعرفة ما يعتقدون أنه أكبر المخاوف التي يجب أن يكون الجمهور على دراية بها. أشار كل من الأطباء أندراس كورناي ودانييل بيرلينت إلى نقاط الضعف في القطاع المالي على أنها مصدر قلق مشروع لم يعترف به الكثيرون.

كان Kornai قلقًا من أن الخوارزميات المالية لا تضع في الاعتبار مصالح البشر ، حيث تمت برمجتها بدلاً من ذلك لحماية وزيادة الأرباح بأي ثمن. أجاب Berleant بالمثل ، قلقًا من أن A. يمكن استغلالها لزيادة ثروة قلة مميزة على حساب الكثيرين.

13. "ما لم نتصد لتحديات الأتمتة ، يمكن أن يتراجع الحراك الاجتماعي أكثر." - السير بيتر لامبل

Kornai و Berleant ليسا الوحيدين الذين أشاروا إلى كيف أن التقدم التكنولوجي يمكن أن يفصل بين من يملكون ومن لا يملكون. أشار السير بيتر لامبل ، من Sutton Trust و Education Endowment Foundation ، إلى أن الأتمتة تشكل تهديدًا للعمال اليدويين من الطبقة العاملة أكثر من أي مجموعة أخرى.

وهو يعتقد أن الأتمتة يمكن أن توسع الفجوة بين الطبقات العليا والدنيا ، حيث يتم الاستيلاء على العمل اليدوي من قبل الآلات التي تترك الفصل بأكمله دون الأدوات اللازمة لكسب العيش. إنه يدعو إلى استثمار أكبر في "المهارات اللينة" مثل الاتصال التي ستميز العمل البشري عن منافسيه الروبوتات ، ويجعل العاملين البشريين أكثر قيمة.

14. "التقدم في الذكاء الاصطناعي سوف يخلق أنواعًا معينة من المشاكل الاجتماعية أو يزيدها سوءًا." - جيري كابلان

المؤلف ذائع الصيت و A.I. يعتقد الخبير ، جيري كابلان ، أن التطورات في التكنولوجيا ستجبرنا على دراسة القضايا الموجودة مسبقًا في مجتمعنا ، ولسبب وجيه. إذا كان لاستخدام التكنولوجيا بشكل مسؤول وآمن ، يجب اتخاذ كل الاحتياطات اللازمة لمنع استغلالها من قبل أولئك الذين يرغبون في إيذاء الآخرين.

في هذا الصدد ، يرى كابلان أن A.I. والروبوتات لا تشكل تهديدًا في حد ذاتها ، بل كأداة يحتمل أن تكون خطرة يمكن أن يستخدمها المجرمون وغيرهم. الطريقة الوحيدة لمنع ذلك ، وفقًا لكابلان ، هي معالجة القضايا الأساسية في مجتمعنا.

15. "كلما زادت قوة الروبوت ، زادت المخاطر. إذا كان للروبوتات في المستقبل استقلالية ... فهذه وصفة لكارثة." - سيلمر برينججورد

سيلمر برينجزجورد ، عالم من معهد Rensselaer Polytechnic ، مهتم بكل من قدرة الآلة على إلحاق الضرر ، وقدرة البشر على برمجة آلة لإحداث ضرر. إنها بالتأكيد معضلة صعبة.

كما أعرب خبراء آخرون في هذه المقالة ، من الضروري الحماية من الآلات المستقلة التي تلحق الأذى غير المقصود بالبشر في محاولاتهم لتحقيق أهدافهم. وبالمثل ، يجب أن نحدد أن الأجهزة ليس بها ثغرات يمكن استغلالها أو إتلافها. بطبيعة الحال ، أمامنا طريق طويل لنقطعه قبل معالجة كل هذه القضايا وإزالتها. حتى ذلك الحين ، من المهم للقادة في مجالات البحث والعلوم والتكنولوجيا الاستمرار في التحدث عن مخاوفهم واقتراح طرق لتحسين التقنيات المستقبلية.


شاهد الفيديو: روبوت مشهورة على إنستغرام روبوتات مشاهير تخدع البشر (كانون الثاني 2022).