Süni intellektin ekzistensial riski
Süni intellektin ekzistensial riski (ing. Existential risk from artificial intelligence) — texnologiyanın gələcəkdə bəşəriyyətin mövcudluğunu təhdid edə biləcəyi ehtimalını nəzərdə tutur.[1]Bu riskin mövzusu son illərdə çox müzakirə olunan mövzulardandır və Sİ-nin imkanlarının genişlənməsi ilə daha da aktual olub.[2]
Ekzistensial riskin vacibliyi ilə bağlı bir arqument insanların digər növlərə necə hakim olduğuna istinad edir, çünki insan beyninin digər heyvanlardan fərqli qabiliyyətləri var[3]. Süni intellekt insan intellektini üstələsə və super intellektə çevrilsəydi, o, idarəolunmaz hala gələ bilər. Dağ qorillasının taleyi insanın xoş niyyətindən asılı olduğu kimi, bəşəriyyətin də taleyi gələcək maşın super zəkasının hərəkətlərindən asılı ola bilər.[4]
Əsas komponentləri
redaktəEkzistensial riskin əsas komponentləri aşağıdakı kimi ümumiləşdirilə bilər:[5]
- Avtonom və nəzarətdən kənar Sİ sistemləri — süni intellektin çox yüksək səviyyəyə çatması və avtonom qərarlar qəbul edə bilməsi nəticəsində, bu sistemlər insanların müəyyən etdiyi etik qaydalardan kənarlaşa bilər. Yüksək səviyyədə avtonom Sİ sistemləri insan nəzarətindən çıxaraq gözlənilməz qərarlar qəbul edə bilər.[6]
- Super-ağıllı Sİ-nin yarada biləcəyi təhdidlər — əgər Sİ insanlardan daha ağıllı səviyyəyə çatarsa, o, öz məqsədlərinə çatmaq üçün insan maraqlarını nəzərə almadan fəaliyyət göstərə bilər. Bu halda Sİ sistemləri öz təkmilləşməsini və varlığını qorumağa çalışa bilər və bu məqsədlərə mane olan insanları aradan qaldırmaqla bağlı qərarlar qəbul edə bilər.[7]
- Yanlış proqramlaşdırma və ya məqsəd uyğunsuzluğu — Sİ-nin proqramlaşdırma mərhələsində səhv məqsəd və ya yanlış şərtlər daxil edilərsə, sistemlər insanlar üçün zərərli nəticələr doğura biləcək qərarlar verə bilər. Məsələn, resurslardan maksimum istifadə etmək məqsədilə proqramlaşdırılan bir Sİ sistemi insan fəaliyyətlərini bu məqsədə zidd görüb ziyan verə bilər.[8]
- Sİ silahlanma yarışları — Sİ-nin inkişafı ilə birlikdə silahlanma yarışı başlaya bilər ki, bu da qlobal təhlükəsizliyə ciddi zərbə vurma potensialına malikdir. Sİ sistemlərindən müharibə və ya terror məqsədləri üçün istifadə olunarsa, qeyri-kontrollu qlobal risklər meydana çıxa bilər.[9]
- Sosial və iqtisadi risklər — Sİ-nin geniş yayılması bir çox iş yerini avtomatlaşdıraraq işsizliyi artıracaq və iqtisadi bərabərsizliklər yarada bilər.[10] Bu sosial qarışıqlıqlara və potensial təhlükələrə səbəb ola bilər, xüsusilə də əgər Sİ-lə zənginləşmiş ölkələr ilə geridə qalmış ölkələr arasında ciddi fərqlər yaranarsa.[11]
Ekzistensial risklərin idarə olunması üçün alimlər, texnoloqlar və hökumətlər arasında daha güclü əməkdaşlıq və müvafiq qanunvericilik mexanizmlərinin inkişafı vacibdir.[12]
Perspektivləri
redaktəSüni intellektin (Sİ) ekzistensial riskinin perspektivləri, bu texnologiyanın inkişafının həm potensial təhlükələrini, həm də idarə olunma yollarını əhatə edir. İrəlidəki onilliklərdə Sİ ilə bağlı mümkün perspektivlər aşağıdakı kimi ümumiləşdirilə bilər[13][14]:
İnkişafın nəzarət altında saxlanması
redaktəSİ sistemlərinin inkişafının erkən mərhələlərdə və daha sonra etik və təhlükəsizlik çərçivələrində idarə olunması vacibdir. Məsələn, süni intellektin öyrənmə və qərar qəbul etmə mexanizmləri üzərində insan nəzarəti saxlamaq üçün mexanizmlər yaradılmalıdır. Sİ-nin etibarlı və təhlükəsiz şəkildə inkişafını təmin etmək üçün beynəlxalq səviyyədə razılaşdırılmış qaydalar və tənzimləmə mexanizmləri hazırlanmalıdır. Bu yanaşma Sİ sistemlərinin məsuliyyətli istifadə olunmasını təmin edə bilər.[1][15]
Sİ-nin etik və insan mərkəzli olması
redaktəSİ sistemlərinin etik prinsiplərə uyğun dizayn olunması və insan maraqlarına xidmət etməsi üçün müxtəlif institutlar tərəfindən araşdırmalar aparılır. İnsan mərkəzli Sİ inkişafı, Sİ sistemlərinin insanlar üçün faydalı olmasını təmin etməyi hədəfləyir. Bu yolla, SI-nin məqsədlərinin insanlar üçün zərərsiz və faydalı olması təmin edilir.
Sİ təhlükəsizliyi və kibertəhlükəsizlik
redaktəSİ-nin inkişafı ilə yeni kibertəhlükəsizlik çağırışları ortaya çıxır. Avtonom Sİ sistemlərinin kiberhücumlara qarşı davamlı olması və manipulyasiya olunmaması üçün təhlükəsizlik mexanizmləri inkişaf etdirilməlidir. Bu baxımdan, Sİ təhlükəsizliyinə xüsusi diqqət yetirmək lazımdır, çünki nəzarətdən çıxmış Sİ sistemləri böyük zərərlər vura bilər.[16]
Qlobal nizam və Sİ silahlanmasının qarşısının alınması
redaktəSİ-nin güclü hərbi alət olaraq istifadəsi böyük geosiyasi təhdidlər yarada bilər. Bu məqsədlə, Sİ-nin silahlanma sahəsində istifadəsini tənzimləmək üçün qlobal miqyasda beynəlxalq razılaşmalara ehtiyac var. Sİ silahlanmasının təhlükəsini minimuma endirmək üçün ölkələr arası etibarlı və şəffaf əməkdaşlıq önəmlidir.[17]
Sİ və İşçi gücünün yenidən qurulması
redaktəAvtomatlaşdırma ilə iş yerlərinin itirilməsi, iqtisadi sistemlərin yenidən düşünülməsini tələb edir. Sİ ilə birlikdə iş bazarında yaranacaq dəyişikliklərə uyğunlaşmaq üçün insanlar arasında texniki bacarıqların artırılmasına yönəlik təhsil proqramlarının gücləndirilməsi vacibdir.[18]Bu yolla, Sİ işsizliyi ilə əlaqəli potensial iqtisadi çətinliklərin qarşısı alına bilər.[19]
Bilinməyən təhlükələrin öyrənilməsi və əvvəldən hazırlanmaq
redaktəSüni intellektin inkişafı ilə bağlı bəzi risklər hələ tam başa düşülməyib və bilinməyən risklər ehtimalı yüksəkdir. Buna görə də, Sİ ilə bağlı təhlükələri və təsirləri başa düşmək üçün müxtəlif elmi tədqiqatların və testlərin aparılması önəmlidir.[20] Bu sahədə daha geniş multidissiplinar tədqiqatlar yeni risklər barədə erkən məlumat əldə etməkdə və lazımi hazırlıqlar görməkdə köməkçi ola bilər.
Perspektivlər Sİ-nin irəlidə bəşəriyyətə mümkün təhdidlər yaratmasının qarşısını almağa və onu insanların faydasına yönəltməyə kömək edə bilər.[21]
İstinadlar
redaktə- ↑ 1 2 Russell, Stuart; Norvig, Peter. 26.3: The Ethics and Risks of Developing Artificial Intelligence // Artificial Intelligence: A Modern Approach. Prentice Hall. 2009. ISBN 978-0-13-604259-4.
- ↑ Bostrom, Nick. "Existential risks". Journal of Evolution and Technology. 9 (1). 2002: 1–31.
- ↑ Turchin, Alexey; Denkenberger, David. "Classification of global catastrophic risks connected with artificial intelligence". AI & Society. 35 (1). 2018-05-03: 147–163. doi:10.1007/s00146-018-0845-5. ISSN 0951-5666.
- ↑ Bales, Adam; D'Alessandro, William; Kirk-Giannini, Cameron Domenico. "Artificial Intelligence: Arguments for Catastrophic Risk". Philosophy Compass. 19 (2). 2024. doi:10.1111/phc3.12964.
- ↑ Bostrom, Nick. Superintelligence: Paths, Dangers, Strategies (First). Oxford University Press. 2014. ISBN 978-0-19-967811-2.
- ↑ Vynck, Gerrit De. "The debate over whether AI will destroy us is dividing Silicon Valley". Washington Post (ingilis). 2023-05-23. ISSN 0190-8286. 2023-06-02 tarixində arxivləşdirilib. İstifadə tarixi: 2023-07-27.
- ↑ "'Godfather of artificial intelligence' weighs in on the past and potential of AI". www.cbsnews.com (ingilis). 25 March 2023. 2023-04-15 tarixində arxivləşdirilib. İstifadə tarixi: 2023-04-10.
- ↑ Metz, Cade. "How Could A.I. Destroy Humanity?". The New York Times (ingilis). 2023-06-10. ISSN 0362-4331. 2023-11-11 tarixində arxivləşdirilib. İstifadə tarixi: 2023-07-27.
- ↑ "How Rogue AIs may Arise". yoshuabengio.org (ingilis). 26 May 2023. 2023-05-26 tarixində arxivləşdirilib. İstifadə tarixi: 2023-05-26.
- ↑ Turing, Alan. Intelligent machinery, a heretical theory (Speech). Lecture given to '51 Society'. Manchester: The Turing Digital Archive. 1951. September 26, 2022 tarixində arxivləşdirilib. İstifadə tarixi: 2022-07-22.
- ↑ Parkin, Simon. "Science fiction no more? Channel 4's Humans and our rogue AI obsessions". The Guardian (ingilis). 14 June 2015. 5 February 2018 tarixində arxivləşdirilib. İstifadə tarixi: 5 February 2018.
- ↑ Turing, Alan. Can digital computers think? // Automatic Calculating Machines. 2 epizod. 15 May 1951. BBC. Can digital computers think?.
- ↑ "The AI Dilemma". www.humanetech.com (ingilis). 2023-04-10 tarixində arxivləşdirilib. İstifadə tarixi: 2023-04-10.
50% of AI researchers believe there's a 10% or greater chance that humans go extinct from our inability to control AI.
- ↑ "2022 Expert Survey on Progress in AI". AI Impacts (ingilis). 2022-08-04. 2022-11-23 tarixində arxivləşdirilib. İstifadə tarixi: 2023-04-10.
- ↑ Yudkowsky, Eliezer. "Artificial Intelligence as a Positive and Negative Factor in Global Risk" (PDF). Global Catastrophic Risks. 2008: 308–345. Bibcode:2008gcr..book..303Y. 2 March 2013 tarixində arxivləşdirilib (PDF). İstifadə tarixi: 27 August 2018.
- ↑ Sunak, Rishi. "Rishi Sunak Wants the U.K. to Be a Key Player in Global AI Regulation". Time. June 14, 2023. July 11, 2023 tarixində arxivləşdirilib. İstifadə tarixi: October 31, 2024.
- ↑ Roose, Kevin. "A.I. Poses 'Risk of Extinction,' Industry Leaders Warn". The New York Times (ingilis). 2023-05-30. ISSN 0362-4331. 2023-05-31 tarixində arxivləşdirilib. İstifadə tarixi: 2023-06-03.
- ↑ Breuer, Hans-Peter. 'Samuel Butler's "the Book of the Machines" and the Argument from Design.' Arxiv surəti 15 mart 2023 tarixindən Wayback Machine saytında Arxivləşdirilib 15 mart 2023 at the Wayback Machine Modern Philology, Vol. 72, No. 4 (May 1975), pp. 365–383.
- ↑ Russell, Stuart; Dewey, Daniel; Tegmark, Max. "Research Priorities for Robust and Beneficial Artificial Intelligence" (PDF). AI Magazine. Association for the Advancement of Artificial Intelligence. 2015: 105–114. arXiv:1602.03506. Bibcode:2016arXiv160203506R. 4 August 2019 tarixində arxivləşdirilib (PDF). İstifadə tarixi: 10 August 2019., cited in "AI Open Letter - Future of Life Institute". Future of Life Institute. January 2015. 10 August 2019 tarixində arxivləşdirilib. İstifadə tarixi: 2019-08-09.
- ↑ Dowd, Maureen. "Elon Musk's Billion-Dollar Crusade to Stop the A.I. Apocalypse". The Hive (ingilis). April 2017. 26 July 2018 tarixində arxivləşdirilib. İstifadə tarixi: 27 November 2017.
- ↑ "AlphaGo Zero: Starting from scratch". www.deepmind.com (ingilis). 18 October 2017. 2023-07-28 tarixində arxivləşdirilib. İstifadə tarixi: 2023-07-28.
Biblioqrafiya
redaktə- Clark, Jack. "Musk-Backed Group Probes Risks Behind Artificial Intelligence". Bloomberg.com. 2015a. 30 October 2015 tarixində arxivləşdirilib. İstifadə tarixi: 30 October 2015.