الرئيسيةعريقبحث

نيك بوستروم

فيلسوف سويدي

☰ جدول المحتويات


نيك بوستروم فيلسوف سويدي في جامعة أوكسفورد ولد في 10 مارس 1973.[3] اشتهر بعمله في المبدأ الأنثروبي ودراسة المخاطر التي تتعرض الحضارة والبشر وكوكب الأرض والمبدأ الإنساني وأخلاقيات التعزيز ومخاطر الذكاء الخارق. أسس برنامج أكسفورد مارتن حول آثار تكنولوجيا المستقبل، وهو المدير المؤسس لمعهد مستقبل الإنسانية في جامعة أكسفورد. أُدرج في عامي 2009 و2015 ضمن قائمة أفضل 100 مفكر عالمي في مجلة فورين بوليسي.[4][5][6][7]

نيك بوستروم
Nick Bostrom, Stanford 2006 (square crop).jpg

معلومات شخصية
اسم الولادة (بالسويدية: Niklas Boström)‏ 
الميلاد 10 مارس 1973
هلسينغبورغ
الجنسية  السويد
الحياة العملية
المدرسة الأم جامعة أوكسفورد
شهادة جامعية دكتوراه في الفلسفة 
مشرف الدكتوراه كولن هاوسون 
المهنة فيلسوف،  وأستاذ جامعي،  وعالم حاسوب 
اللغات الإنجليزية[2] 
مجال العمل فلسفة
موظف في جامعة أوكسفورد 
سبب الشهرة مبدأ إنساني[1]
دراسة المخاطر التي تتعرض الحضارة والبشر، وكوكب الأرض
فرضية المحاكاة
المواقع
الموقع الموقع الرسمي 
IMDB صفحته على IMDB 

ألف بوستروم أكثر من 200 منشور، وألف كتابين وشارك في تحرير كتابين آخرين. الكتابان اللذان ألفهما هما «التحيز الأنثروبي: الآثارو الاختيار والملاحظة في العلم والفلسفة» في عام 2002 وكتاب «الذكاء الخارق: المسارات والأخطار والاستراتيجيات» في عام 2014. كان كتاب الذكاء الخارق من أكثر الكتب مبيعًا في قائمة صحيفة نيويورك تايمز، أوصى  إيلون مسك وبيل غيتس بهذا الكتاب من بين آخرين، وساعد على نشر مصطلح الذكاء الخارق.[8][9][10]

اعتقد بوستروم أن الذكاء الخارق، الذي يعرّفه بأنه «أي فكر يتجاوز الأداء المعرفي للبشر بدرجة كبيرة في جميع مجالات الاهتمام تقريبًا» هو نتيجة محتملة للتقدم في الذكاء الاصطناعي. ويرى أن ظهور الذكاء الخارق يشكل خطر كبير محتمل على البشر، لكنه يرفض فكرة أن البشر عاجزون عن إيقاف آثاره السلبية. شارك بوستروم في عام 2017 في وضع قائمة تضم 23 مبدأً يجب أن تتبعها جميع عمليات تطوير الذكاء الاصطناعي.[11][12][13]

وجهات النظر

الأخطار الوجودية

تُبدي جوانب من بحث بوستروم قلقًا حول مستقبل البشرية والنتائج طويلة الأجل. ويناقش الخطر الوجودي الذي يعّرفه بأنه أحد النتائج السلبية التي قد تقضي على الحياة الذكية التي نشأت على الأرض أو تقلل بشكل دائم وكبير من احتمال وجودها. في مجلدات المخاطر الكارثية العالمية التي صدرت عام 2008، يصف المحرران بوستروم وميلانو م. شيركوفيتش العلاقة بين الخطر الوجودي والفئة الأوسع من المخاطر الكارثية العالمية، ويربطان المخاطر الوجودية بآثار اختيار المراقبين ومفارقة فيرمي. أسس بوستروم في عام 2005 معهد مستقبل الإنسانية الذي يبحث في المستقبل البعيد للحضارة الإنسانية. وهو أيضًا مستشار في مركز دراسة المخاطر الوجودية.

الذكاء الخارق

الضعف البشري أمام بالتقدم في الذكاء الاصطناعي

أوضح بوستروم في كتابه في عام 2014 (الذكاء الخارق: المسارات والأخطار والاستراتيجيات) أن «خلق كائن ذكي خارق يمثل وسيلة محتملة لانقراض البشرية». يجادل بوستروم أن الحاسب الذي يملك مقدرة فكرية عامة قريبة من مستوى البشر يمكن أن يبدأ انفجارًا معرفيًا على نطاق زمني رقمي وينشأ نتيجة لذلك على الفور شيء قوي لدرجة قد تدمر النوع البشري عمدًا أو عن طريق الصدفة. يؤكد بوستروم أن قوة الذكاء الخارق ستكون كبيرة للغاية قد تصل لفتح الحدود القصوى، على سبيل المثال، الهدف من حساب الرمز الرياضي ط قد يؤدي تباعًا إلى نمو منشآت مصنعة بتكنولوجيا النانو وانتشارها فوق سطح الأرض وتغطيته بالكامل في غضون أيام. ويعتقد أن الذكاء الخارق سيشكل خطرًا على الوجود البشري فور ظهوره، ما يخلق مشكلة صعبة للغاية وهي معرفة كيفية السيطرة على مثل هذا الكيان قبل أن يصبح موجود بالفعل.[14][15][16]

هناك تحذير من وجود توجيهات رئيسية للذكاء الصنعي ترفق بالإنسان تعول على الدقة المطلقة للمعرفة الإنسانية التي استندت إليها. يشير بوستروم إلى أن عدم وجود اتفاق بين معظم الفلاسفة دليل على أن معظمهم مخطئون، مع ما يصاحب ذلك من احتمال أن يكون المفهوم الأساسي للعلوم الحالية غير صحيح. يقول بوستروم إن الافتراض الشائع هو أن الذكاء العالي سيؤدي لشخصية غير عدوانية ونرديه. لكن يلاحظ أن كلا من جون فون نيومان وبيرتراند راسل أيّدا توجيه ضربة نووية، أو التهديد بها، لمنع امتلاك السوفييت القنبلة الذرية.[17][16][18]

نظرًا لعدم وجود الكثير من السوابق التي تقودنا لفهم ما قد تمليه العقلانية النقية غير المرتبطة الإنسان، على النظام المنفرد المحتمل للذكاء الصنعي الذي بقي مقصيًا. قد تجعل الوسائل غير المحدودة نسبيًا للذكاء الفائق تحليلها يسير وفقًا لخطوط مختلفة لتقييمات الإنتاجية المتناقضة المتطورة التي تمنح البشر إحساس النفور الأساسي من الخطر.

يُظهر الاصطفاء الزمري عند الحيوانات المفترسة التي تأكل لحوم البشر الطبيعة غير البديهية لمنطق البحث التطوري غير البشري. وبالتالي البشر ليسوا مستعدين لفهم ما قد تكون نوايا الذكاء الاصطناعي. وفقًا لذلك، لا يمكن إهمال فكرة أنه أي نوع من الذكاء الخارق سيتبع حتمًا استراتيجية عمل هجومية «كل شيء أو لا شيء» من أجل تحقيق الهيمنة وضمان بقائها. يلاحظ بوستروم أنه حتى البرامج الحالية مثل ماكجايفر، تواجه حلولًا للأجهزة غير قابلة للتطبيق على ما يبدو ولكنها تعمل، ما يجعل العزلة الكبيرة للذكاء الخارق مشكلة.

مؤلفاته

  • بوستروم, نيك. التحيز الانثروبي : آثار اختيار الملاحظة في العلم والفلسفة (باللغة الإنجليزية).  .
  • بوستروم, نيك. ذريعة المخاطر العالمية (باللغة الإنجليزية).  .
  • جوليان سافوليسكو, نيك بوستروم. تعزيز الإنسان (باللغة الإنجليزية).  .

مصادر

  1. "هل العالم صنع خصصيا للبشر" (باللغة الإنجليزية). anthropic-principle. مؤرشف من الأصل في 9 مايو 20198 يناير، 2013.
  2. Identifiants et Référentiels — تاريخ الاطلاع: 2 مايو 2020 — الناشر: Bibliographic Agency for Higher Education
  3. "nickbostrom.com". Nickbostrom.com. مؤرشف من الأصل في 30 أغسطس 201816 أكتوبر 2014.
  4. "Professor Nick Bostrom : People". Oxford Martin School. مؤرشف من الأصل في 15 مارس 201916 أكتوبر 2014.
  5. "Future of Humanity Institute – University of Oxford". Fhi.ox.ac.uk. مؤرشف من الأصل في 3 ديسمبر 201916 أكتوبر 2014.
  6. Frankel, Rebecca. "The FP Top 100 Global Thinkers". Foreign Policy. مؤرشف من الأصل في 7 نوفمبر 201905 سبتمبر 2015.
  7. "Nick Bostrom: For sounding the alarm on our future computer overlords". foreignpolicy.com. Foreign Policy magazine. مؤرشف من الأصل في 20 مايو 201901 ديسمبر 2015.
  8. Thornhill, John (14 July 2016). "Artificial intelligence: can we control it?". فاينانشال تايمز. مؤرشف من الأصل في 12 سبتمبر 201610 أغسطس 2016. (الاشتراك مطلوب)
  9. "Nick Bostrom on artificial intelligence". Oxford University Press. 8 September 2014. مؤرشف من الأصل في 2 أبريل 201904 مارس 2015.
  10. Times, The New York (2014-09-08). "Best Selling Science Books". The New York Times. مؤرشف من الأصل في 25 أغسطس 201819 فبراير 2015.
  11. "Bill Gates Is Worried About the Rise of the Machines". The Fiscal Times. مؤرشف من الأصل في 5 يونيو 201919 فبراير 2015.
  12. Bratton, Benjamin H. (23 February 2015). "Outing A.I.: Beyond the Turing Test". The New York Times. مؤرشف من الأصل في 29 يونيو 201904 مارس 2015.
  13. UK, Sam Shead, Business Insider. "The CEO of Google DeepMind is worried that tech giants won't work together at the time of the intelligence explosion". Business Insider. مؤرشف من الأصل في 13 أبريل 201921 فبراير 2019.
  14. Kurzweil, Ray (2012). How to create a mind the secret of human thought revealed. New York: Viking.  .
  15. Superintelligence: Paths, Dangers, Strategies By Nick Bostrom, Oxford
  16. Superintelligence: Paths, Dangers, Strategies By Nick Bostrom
  17. "Nick Bostrom : CV" ( كتاب إلكتروني PDF ). Nickbostrom.com. مؤرشف من الأصل ( كتاب إلكتروني PDF ) في 19 أكتوبر 201916 أكتوبر 2014.
  18. Superintelligence: Paths, Dangers, Strategies By Nick Bostrom p126-30

موسوعات ذات صلة :