نيك بوستروم

نيك بوستروم (بالسويدية: Nick Bostrom)‏ فيلسوف سويدي في جامعة أوكسفورد ولد في 10 مارس 1973.[4] اشتهر بعمله في المبدأ الأنثروبي ودراسة المخاطر التي تتعرض الحضارة والبشر وكوكب الأرض والمبدأ الإنساني وأخلاقيات التعزيز ومخاطر الذكاء الخارق. أسس برنامج أكسفورد مارتن حول آثار تكنولوجيا المستقبل، وهو المدير المؤسس لمعهد مستقبل الإنسانية في جامعة أكسفورد. أُدرج في عامي 2009 و2015 ضمن قائمة أفضل 100 مفكر عالمي في مجلة فورين بوليسي.[5][6][7][8]

نيك بوستروم

معلومات شخصية
اسم الولادة (بالسويدية: Niklas Boström)‏ 
الميلاد 10 مارس 1973(1973-03-10)
هلسينغبورغ
الجنسية  السويد
الحياة العملية
المدرسة الأم جامعة أوكسفورد
شهادة جامعية دكتوراه في الفلسفة [1] 
مشرف الدكتوراه كولن هاوسون  
المهنة فيلسوف ،  وأستاذ جامعي ،  وعالم حاسوب  
اللغات الإنجليزية [2] 
مجال العمل فلسفة
موظف في جامعة أوكسفورد  
سبب الشهرة مبدأ إنساني[3]
دراسة المخاطر التي تتعرض الحضارة والبشر، وكوكب الأرض
فرضية المحاكاة
المواقع
الموقع الموقع الرسمي 
IMDB صفحته على IMDB 

ألف بوستروم أكثر من 200 منشور، وألف كتابين وشارك في تحرير كتابين آخرين. الكتابان اللذان ألفهما هما «التحيز الأنثروبي: الآثارو الاختيار والملاحظة في العلم والفلسفة» في عام 2002 وكتاب «الذكاء الخارق: المسارات والأخطار والاستراتيجيات» في عام 2014. كان كتاب الذكاء الخارق من أكثر الكتب مبيعًا في قائمة صحيفة نيويورك تايمز، أوصى  إيلون مسك وبيل غيتس بهذا الكتاب من بين آخرين، وساعد على نشر مصطلح الذكاء الخارق.[9][10][11]

اعتقد بوستروم أن الذكاء الخارق، الذي يعرّفه بأنه «أي فكر يتجاوز الأداء المعرفي للبشر بدرجة كبيرة في جميع مجالات الاهتمام تقريبًا» هو نتيجة محتملة للتقدم في الذكاء الاصطناعي. ويرى أن ظهور الذكاء الخارق يشكل خطر كبير محتمل على البشر، لكنه يرفض فكرة أن البشر عاجزون عن إيقاف آثاره السلبية. شارك بوستروم في عام 2017 في وضع قائمة تضم 23 مبدأً يجب أن تتبعها جميع عمليات تطوير الذكاء الاصطناعي.[12][13][14]

وجهات النظر

الأخطار الوجودية

تُبدي جوانب من بحث بوستروم قلقًا حول مستقبل البشرية والنتائج طويلة الأجل. ويناقش الخطر الوجودي الذي يعّرفه بأنه أحد النتائج السلبية التي قد تقضي على الحياة الذكية التي نشأت على الأرض أو تقلل بشكل دائم وكبير من احتمال وجودها. في مجلدات المخاطر الكارثية العالمية التي صدرت عام 2008، يصف المحرران بوستروم وميلانو م. شيركوفيتش العلاقة بين الخطر الوجودي والفئة الأوسع من المخاطر الكارثية العالمية، ويربطان المخاطر الوجودية بآثار اختيار المراقبين ومفارقة فيرمي. أسس بوستروم في عام 2005 معهد مستقبل الإنسانية الذي يبحث في المستقبل البعيد للحضارة الإنسانية. وهو أيضًا مستشار في مركز دراسة المخاطر الوجودية.

الذكاء الخارق

الضعف البشري أمام بالتقدم في الذكاء الاصطناعي

أوضح بوستروم في كتابه في عام 2014 (الذكاء الخارق: المسارات والأخطار والاستراتيجيات) أن «خلق كائن ذكي خارق يمثل وسيلة محتملة لانقراض البشرية». يجادل بوستروم أن الحاسب الذي يملك مقدرة فكرية عامة قريبة من مستوى البشر يمكن أن يبدأ انفجارًا معرفيًا على نطاق زمني رقمي وينشأ نتيجة لذلك على الفور شيء قوي لدرجة قد تدمر النوع البشري عمدًا أو عن طريق الصدفة. يؤكد بوستروم أن قوة الذكاء الخارق ستكون كبيرة للغاية قد تصل لفتح الحدود القصوى، على سبيل المثال، الهدف من حساب الرمز الرياضي ط قد يؤدي تباعًا إلى نمو منشآت مصنعة بتكنولوجيا النانو وانتشارها فوق سطح الأرض وتغطيته بالكامل في غضون أيام. ويعتقد أن الذكاء الخارق سيشكل خطرًا على الوجود البشري فور ظهوره، ما يخلق مشكلة صعبة للغاية وهي معرفة كيفية السيطرة على مثل هذا الكيان قبل أن يصبح موجود بالفعل.[15][16][17]

هناك تحذير من وجود توجيهات رئيسية للذكاء الصنعي ترفق بالإنسان تعول على الدقة المطلقة للمعرفة الإنسانية التي استندت إليها. يشير بوستروم إلى أن عدم وجود اتفاق بين معظم الفلاسفة دليل على أن معظمهم مخطئون، مع ما يصاحب ذلك من احتمال أن يكون المفهوم الأساسي للعلوم الحالية غير صحيح. يقول بوستروم إن الافتراض الشائع هو أن الذكاء العالي سيؤدي لشخصية غير عدوانية ونرديه. لكن يلاحظ أن كلا من جون فون نيومان وبيرتراند راسل أيّدا توجيه ضربة نووية، أو التهديد بها، لمنع امتلاك السوفييت القنبلة الذرية.[18][17][19]

نظرًا لعدم وجود الكثير من السوابق التي تقودنا لفهم ما قد تمليه العقلانية النقية غير المرتبطة الإنسان، على النظام المنفرد المحتمل للذكاء الصنعي الذي بقي مقصيًا. قد تجعل الوسائل غير المحدودة نسبيًا للذكاء الفائق تحليلها يسير وفقًا لخطوط مختلفة لتقييمات الإنتاجية المتناقضة المتطورة التي تمنح البشر إحساس النفور الأساسي من الخطر.

يُظهر الاصطفاء الزمري عند الحيوانات المفترسة التي تأكل لحوم البشر الطبيعة غير البديهية لمنطق البحث التطوري غير البشري. وبالتالي البشر ليسوا مستعدين لفهم ما قد تكون نوايا الذكاء الاصطناعي. وفقًا لذلك، لا يمكن إهمال فكرة أنه أي نوع من الذكاء الخارق سيتبع حتمًا استراتيجية عمل هجومية «كل شيء أو لا شيء» من أجل تحقيق الهيمنة وضمان بقائها. يلاحظ بوستروم أنه حتى البرامج الحالية مثل ماكجايفر، تواجه حلولًا للأجهزة غير قابلة للتطبيق على ما يبدو ولكنها تعمل، ما يجعل العزلة الكبيرة للذكاء الخارق مشكلة.

مؤلفاته

  • بوستروم, نيك. التحيز الانثروبي : آثار اختيار الملاحظة في العلم والفلسفة (باللغة الإنجليزية). ISBN 0-415-93858-9. الوسيط |CitationClass= تم تجاهله (مساعدة)
  • بوستروم, نيك. ذريعة المخاطر العالمية (باللغة الإنجليزية). ISBN 978-0-19-857050-9. الوسيط |CitationClass= تم تجاهله (مساعدة)
  • جوليان سافوليسكو, نيك بوستروم. تعزيز الإنسان (باللغة الإنجليزية). ISBN ISBN 0-19-929972-2 تأكد من صحة |isbn= القيمة: invalid character (مساعدة). الوسيط |CitationClass= تم تجاهله (مساعدة)

روابط خارجية

مصادر

  1. الناشر: A & C Black
  2. Identifiants et Référentiels — تاريخ الاطلاع: 2 مايو 2020 — الناشر: الوكالة الفهرسة للتعليم العالي
  3. "هل العالم صنع خصصيا للبشر" (باللغة الإنجليزية). anthropic-principle. مؤرشف من الأصل في 9 مايو 2019. اطلع عليه بتاريخ 8 يناير، 2013. الوسيط |CitationClass= تم تجاهله (مساعدة); تحقق من التاريخ في: |تاريخ الوصول= (مساعدة)
  4. "nickbostrom.com". Nickbostrom.com. مؤرشف من الأصل في 30 أغسطس 2018. اطلع عليه بتاريخ 16 أكتوبر 2014. الوسيط |CitationClass= تم تجاهله (مساعدة)
  5. "Professor Nick Bostrom : People". Oxford Martin School. مؤرشف من الأصل في 15 مارس 2019. اطلع عليه بتاريخ 16 أكتوبر 2014. الوسيط |CitationClass= تم تجاهله (مساعدة)
  6. "Future of Humanity Institute – University of Oxford". Fhi.ox.ac.uk. مؤرشف من الأصل في 3 ديسمبر 2019. اطلع عليه بتاريخ 16 أكتوبر 2014. الوسيط |CitationClass= تم تجاهله (مساعدة)
  7. Frankel, Rebecca. "The FP Top 100 Global Thinkers". Foreign Policy. مؤرشف من الأصل في 7 نوفمبر 2019. اطلع عليه بتاريخ 05 سبتمبر 2015. الوسيط |CitationClass= تم تجاهله (مساعدة)
  8. "Nick Bostrom: For sounding the alarm on our future computer overlords". foreignpolicy.com. Foreign Policy magazine. مؤرشف من الأصل في 20 مايو 2019. اطلع عليه بتاريخ 01 ديسمبر 2015. الوسيط |CitationClass= تم تجاهله (مساعدة)
  9. Thornhill, John (14 July 2016). "Artificial intelligence: can we control it?". فاينانشال تايمز. مؤرشف من الأصل في 12 سبتمبر 2016. اطلع عليه بتاريخ 10 أغسطس 2016. الوسيط |CitationClass= تم تجاهله (مساعدة) (الاشتراك مطلوب)
  10. "Nick Bostrom on artificial intelligence". Oxford University Press. 8 September 2014. مؤرشف من الأصل في 2 أبريل 2019. اطلع عليه بتاريخ 04 مارس 2015. الوسيط |CitationClass= تم تجاهله (مساعدة)
  11. Times, The New York (2014-09-08). "Best Selling Science Books". The New York Times. مؤرشف من الأصل في 25 أغسطس 2018. اطلع عليه بتاريخ 19 فبراير 2015. الوسيط |CitationClass= تم تجاهله (مساعدة)
  12. "Bill Gates Is Worried About the Rise of the Machines". The Fiscal Times. مؤرشف من الأصل في 5 يونيو 2019. اطلع عليه بتاريخ 19 فبراير 2015. الوسيط |CitationClass= تم تجاهله (مساعدة)
  13. Bratton, Benjamin H. (23 February 2015). "Outing A.I.: Beyond the Turing Test". The New York Times. مؤرشف من الأصل في 29 يونيو 2019. اطلع عليه بتاريخ 04 مارس 2015. الوسيط |CitationClass= تم تجاهله (مساعدة)
  14. UK, Sam Shead, Business Insider. "The CEO of Google DeepMind is worried that tech giants won't work together at the time of the intelligence explosion". Business Insider. مؤرشف من الأصل في 13 أبريل 2019. اطلع عليه بتاريخ 21 فبراير 2019. الوسيط |CitationClass= تم تجاهله (مساعدة)
  15. Kurzweil, Ray (2012). How to create a mind the secret of human thought revealed. New York: Viking. ISBN 9781101601105. الوسيط |CitationClass= تم تجاهله (مساعدة)
  16. Superintelligence: Paths, Dangers, Strategies By Nick Bostrom, Oxford
  17. Superintelligence: Paths, Dangers, Strategies By Nick Bostrom
  18. "Nick Bostrom : CV" (PDF). Nickbostrom.com. مؤرشف من الأصل (PDF) في 19 أكتوبر 2019. اطلع عليه بتاريخ 16 أكتوبر 2014. الوسيط |CitationClass= تم تجاهله (مساعدة)
  19. Superintelligence: Paths, Dangers, Strategies By Nick Bostrom p126-30
    • بوابة السويد
    • بوابة فلسفة
    • بوابة علم الأحياء
    • بوابة تقانة
    • بوابة أعلام
    This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.