0 0
Read Time:16 Minute, 29 Second

Претходна анализа заснива се на конзервативном сценарију за краткорочни (трогодишњи) и средњорочни временски период до око 2040. године: брзи раст већ постојећих система „уске” вештачке интелигенције (УВИ), укључујући њихове напредне мултимодалне и вишеструке моделе, поплочава пут према будућој општој вештачкој интелигенцији (ОВИ), на људском нивоу. Међутим, ово не искључује, већ претпоставља способност ОВИ да изводи све врсте задатака као особа или чак боље од особе и јефтиније од особа, као и да се опроба у окружењу где особе не могу да делују због физичког окружења.

Брзи квалитативни продори у развоју технологија вештачке интелигенције (ВИ), појава ОВИ и снажне ВИ су такође могући у блиској будућности. Снажна ВИ располагала би са еквивалентом (релативно блиским или удаљеним) људској свести и, посебно, таквим мотивационим факторима понашања као што су жеље, намере, воља (воља у смислу командовање самом себи како би се испуниле сопствене тежње). Без субјективности било би изузетно тешко повући смислену разлику између снажне ВИ и машинске ОВИ. ЗУВИ на ступњу уске и опште ВИ ће имати ексклузивно антропоморфни карактер. Само уз стварање снажне ВИ и, посебно, под неповољним предусловима и штетним утицајима, може да се појави злокобни субјекат ВИ.

Нова реалност

Под утицајем снажног напретка у генеративној вештачкој интелигенцији током 2022. и 2023. године, бројни генерални директори водећих компанија на пољу ВИ и добро познати специјалисти за ВИ су објавили могућност преласка на ОВИ у наредним годинама (Altman 2023, Antropic 2024, Kudalkar 2024, Bove 2023). Очигледно је да су одређени интереси у индустрији вештачке интелигенције такође утицали овде, чије је присуство почетком 2024. године препознао Демис Хасабис, извршни директор Гугловог Дип мајнда (Demis Hassabis, the Google’s DeepMind CEO).

Према његовим речима огромна средства слила су се у сектор ВИ што је довело до наглашеног ентузијазма и поприлично опортунистичког понашања. Инвеститори су определили скоро 30 милијарди долара за договоре повезане са генеративном ВИ током 2023. године, према Пич Буку (PitchBook) (Tan, 2024). Тешко да је случајно Сем Алтман радикално променио своје процене доступне у медијима током 2023. и 2024. године у погледу ОВИ. У објави на блогу компаније Опен Еј-Ај (Open AI) из фебруара 2023. „Планирање за ОВИ и време после ње” Алтман је написао да „неприлагођенa суперинтелигентна ОВИ може да жестоко нашкоди свету; аутократски режим са одлучујућим вођством у сфери суперинтелигенције може да учини управо то” (Altman, 2023). Након што је Мајкрософт – главни инвеститор у Опен Еј-Aј – оснажио своје позиције у компанији, Алтманова процена ризика од ОВИ постала је далеко умеренија. (Goldman, 2024). 

Међу ширим круговима специјалиста, постоје много конзервативније процене о вероватноћи стварања ОВИ, али и они нумерички одређују ову вероватноћу на око 90% у наредних 100 година, док према неким истраживањима наслућују да ће бити потребно знатно мање времена. Током неколико претходних година – због великог напретка у овој области – истраживачи су знатно изменили своја предвиђања.

У највећем истраживању ове врсте објављеном 2024. године група истраживача из САД, Велике Британије и Немачке испитивала је 2.778 стручњака који су објављивали радове у водећим часописима о ВИ, питајући их за њихова предвиђања о брзини напретка ВИ и природи и утицају напредних система ВИ. Збирно, процењују да су шансе да машине без било какве помоћи надмаше људе у вршењу било ког задатка 10% до 2027. године, односно 50% до 2047. године. Потоња процена је 13 година скорија од оне из сличног истраживања које је спроведено само годину дана раније. Међутим, шанса да сва људска занимања постану у потпуности аутоматизована процењује се на 10% до 2037, и 50% до 2116. (у истраживању из 2022. године потоње време је процењивано до 2164). (Grace et al, 2024).

Као и увек када је присутан висок ниво несигурности, важно је нагласити да она може да се очитује у два правца. Могуће је да смо веома далеко од ВИ која би била на људском нивоу, али такође то може значити да имамо врло мало времена да се припремимо (Roser, 2023).

Постоје и друге, сада слабије развијене путање за кретање према ОВИ осим великих језичких модела (ВЈМ). Можда би то могли да буду квантни компјутери који су у раној фази практичне примене. Универзитет Западни Сиднеј је покренуо пројекат стварања неуроморфичког суперкомпјутера Дип Саут (DeepSouth) способног да изводи 228.000 милијарди синаптичких операција по секунди, као што чини људски мозак. Дип Саут би требало да се операционализује до априла 2024. године (Western Sydney University, 2023).

Вредност тржишта неуроморфичких чипова процењује се на 0,16 милијарди долара 2024. године, а очекује се да ће достићи 5,83 милијарди 2029. године (Mordor Intelligence, 2024). Биолошки компјутери или „органоидна интелигенција” такође напредује. Можда ВЈМ неће моћи да се преобрате у општу вештачку интелигенцију али нови квалитет когнитивних могућности будућих ВЈМ-ова ће помоћи да се то постигне.

Очигледно, уколико се могућност појаве опште вештачке интелигенције оствари у наредној деценији, то ће дати модерном човечанству – дубоко подељеном у друштвеном и геополитичком погледу – изузетно мало времена да се адекватно припреми за долазак нове реалности.

Алармантан тренд

У прилог револуционарног и релативно брзог скока у технологији говори доказано ефикасна употреба УВИ у истраживањима. То може – уз будућа унапређења – да обезбеди значајан допринос настанка ОВИ у кратком року. Прелаз на квалитативно нове могућности за ВИ у пољу истраживања ће неизбежно водити до врло брзог раста у другим наукама и технологијама. То ће отворити нове могућности, али и створити опасности другог реда.

Може се рећи да ће специјализована ВИ високог когнитивног нивоа (HLCAI) – способна на основу програмираних циљева да ствара нова знања у различитим научним и технолошким пољима – брже и на квалитативно вишем нивоу од било ког људског бића, радикално преобразити друштво, иако нека знања до којих би дошла могу да је униште чак и без учешћа злонамерних чинилаца. Да ли ће HLCAI бити део ОВИ или непосредни предуслов за њено стварање – будућност ће показати. И HLCAI и ОВИ могу бити лако претворени у разноврсно оружје за масовно уништење.

Тешко је сложити се са изјавом компаније Антропик (Antropic) коју су основали бивши чланови Опен Еј-Аја када кажу: „Који ће облик будући системи вештачке интелигенције имати – да ли ће, на пример, бити способни да делују независно или ће само стварати информације за људе – остаје да се одреди” (Antropic. 2024). Уколико претпоставимо да ће ОВИ (или HLCAI) постати доступнија већем броју делатника него нуклеарно наоружање 1945. године, онда постојање некога ко би задао задатак ВИ да развије пројекат снажне ОВИ може да се предвиди, ако не и велика вероватноћа брзог остварења оваквог пројекта.

Тимови компаније Антропик развијају законе раста вештачке интелигенције, показујући да је могуће направити ВИ паметнијом на предвидљиве начине, само тако што ће се учинити већом и што ће се тренирати на основу веће количине података (Antropic, 2024). До краја ове или почетком наредне деценије 21. века, количина рачунарске моћи коришћена за тренирање најнапреднијих модела вештачке интелигенције могла би да буде 1.000 пута већа у односу на ону која се користи за тренирање Џи-Пи-Ти 4 (GPT 4.0). 

Уколико се урачуна и побољшање алгоритамског процеса, количина ефективне рачунске моћи могла би да буде отприлике милион пута већа од оне која се користи за Џи-Пи-Ти 4. Постоји извесна несигурност о томе када би ови технолошки прагови могли да буду пређени, али овај ниво раста делује могуће достићи у оквиру предвиђених цена и хардверских ограничења (Scharre 2024, p. 6).

На оваквим прорачунима се добрим делом заснива брзи раст највећег светског произвођача миркочипова, компаније Енвидиа (Nvidia), која је почетком априла имала тржишну капитализацију од 2,259 хиљада милијарди долара (3.111 хиљада милијарди долара 27. јуна; прим. НС), а треба нагласити да је 2020. године износила само 136 милијарди (CompaniesMarketcap, 2024). То је чини трећом највреднијом компанијом по тржишној капитализацији (средином јуна 2024. је постала највреднија компанија на свету; прим. НС).

Џенсен Хуанг (Jensen Huang), генерални директор Енвидије, одговарајући на економском форуму Стенфорд универзитета на питање колико би било потребно да се створе рачунари који размишљају као људи, рекао је следеће: „Уколико дамо ВИ сваки могући тест који можете да замислите, можете направити списак тестова и ставити их пред информатичку индустрију, и нагађам да бисмо у наредних пет година добро прошли на сваком од њих” (Nellis, 2024).

Присутан је алармантни тренд у правцу концентрације капацитета вештачке интелигенције у рукама малог броја корпоративних чинилаца, што умањује број и разноврсност истраживача способних да се носе са најнапреднијим моделима (Scharre 2024, стр. 6). Требало би очекивати да ће велике технолошке компаније настојати да даље учврсте контролу над обећавајућим компанијама, пошто монополистички расположу средствима нужним за развој вештачке интелигенције. Уколико цена стварања моћнијих великих језичких модела постане претерано висока и за највеће корпорације, а могућност стварања опште вештачке интелигенције ускоро постане врло висока, америчка влада може да финансира пројекте рада на ОВИ, пошто располаже много већим могућностима за тако нешто чак и у односу на велике корпорације.

Екстремна несигурност

Председник Бајден је 30. октобра 2023. године издао извршно наређење о безбедној, сигурној и поузданој вештачкој интелигенцији. У документу се установљују „… нови стандарди за сигурност и безбедност ВИ, заштиту америчке приватности, висок ниво једнакости и људских права, заштиту права потрошача…” и обећава се „заштита Американаца од превара и обмана које би омогућила ВИ…” (White House, 2023). У исто време, извршно наређење практично потчињава водеће развојне тимове на пољу ВИ стриктној државној контроли:

„Према Акту о одбрамбеној производњи, наређење ће захтевати да компаније које развијају било који фундаментални модел који представља озбиљан ризик по националну безбедност, националну економску сигурност или национално јавно здравље и безбедност морају да обавесте федералне власти када тренирају модел, и морају да поделе резултате са тимовима који се баве информатичком безбедношћу”. (White House, 2023). Практично све гране и правци развоја ВИ потпадају под захтев овог извршног наређења, с обзиром да је реч о технологији двојне намене. Очигледна милитаризација ВИ у САД по свој прилици неће моћи да иде руку под руку са жељом за „унапређење једнакости и грађанских права“ у процесу развоја и имплементације ВИ.

У јануару 2024. године, Бајденова администрација је издала обавештење о „Кључним потезима о ВИ на основу прекретничког извршног овлашћења председника Бајдена”. Међу различитим мерама које нацрт прописује јесте предлог да се америчким компанијама за клауд рачунарске системе, које обезбеђују рачунарску снагу страном увежбавању ВИ, наметне да подносе извештаје како и када то чине. „Министарство трговине може, уколико се прихвати предложено, да захтева од провајдера услуга клауд рачунарства да упозоре владу када страни клијенти увежбавају своје најмоћније моделе, што може да буде употребљено за злонамерне активности”. (White House, 2024). 

Екстремна несигурност коју изражава став „…који би могли бити коришћени за злонамерне активности” може на крају да ускрати свим другим страним државама и не-државним чиниоцима употребу рачунарске моћи САД како би тренирали обећавајуће моделе. Стога, у САД, две институције, велике информатичке компаније и председничка администрација – којима не верује већина Американаца – ће контролисати развој обећавајућих облика ВИ, умањиће јавну контролу (имајмо на уму Акт о одбрамбеној производњи и претње по националну безбедност), и коначно сузити могућности за ширу међународну сарадњу. Наравно, претње по америчку националну безбедност од злонамерне употребе ВИ објективно постоје, али није сигурно од кога би могле да дођу.

Сценарији о друштвеном развоју и ризику за психолошку безбедност на нивоу напредне АНИ и преласка на ОВИ, као и о могућностима и претњама које би донела појава снажне ВИ и суперинтелигенције размотрени су детаљно у ранијим ауторовим радовима објављеним од 2020-2023. године (Pashentsev, 2020 and 2023b).

Брз развој и увођење шире примене технологија ВИ последњих година потврђује чињеницу да је човечанство ступило у нову индустријску револуцију, те да се мењају технолошки обрасци. Али сама природа технолошке револуције засноване на ВИ, њене огромне могућности, и у истом тренутку егзистенцијални ризици са којима се суочава човечанство, по први пут захтевају да особа прође кроз процес психолошке иновације и когнитивне промене. Овладавање новим способностима захтеваће квалитативно нов ниво друштвене организације и одговорности да се не би изгубила контрола над технологијом, чиме би се избегао настанак сингуларности. Да бисмо избегли сингуларност, потребно је да владамо новим технологијама, не престајући да будемо људи. То је историјски изазов. 

РЕФЕРЕНЦЕ:

Ahmad SF, Han H, Alam MM et al. (2023) Impact of artificial intelligence on human loss in decision making, laziness and safety in education. Humanit Soc Sci Commun 10, 311. https://doi.org/10.1057/s41599-023-01787-8

Altman S (2023) Planning for AGI and beyond. In: Openai.com. https://openai.com/blog/planning-for-agi-and-beyond. Приступљено 2. априла 2024.

Antropic (2024) Core Views on AI Safety: When, Why, What, and How. https://www.anthropic.com/news/core-views-on-ai-safety. Приступљено 2. априла 2024

Bhoopchand A, Brownfield B, Collister A et al. (2023) Learning few-shot imitation as cultural transmission. Nat Commun 14, 7536. https://doi.org/10.1038/s41467-023-42875-2

Big Asia (2024) Boleye 180 shkol v Kitaye stanut tsentrami po obucheniyu iskusstvennomu intellektu (More than 180 schools in China will become artificial intelligence training centers). https://bigasia.ru/bolee-180-shkol-v-kitae-stanut-czentrami-po-obucheniyu-iskusstvennomu-intellektu/. Приступљено 2. априла 2024.

Bove T (2023) CEO of Google’s DeepMind says we could be ‘just a few years’ from A.I. that has human-level intelligence, у Yahoo Finance. Приступљено 2. априла 2024.

Collard AM (2024) 4 ways to future-proof against deepfakes in 2024 and beyond, World Economic Forum. Приступљено 2. априла 2024.

Coltin J (2024) How a fake, 10-second recording briefly upended New York politics, Politico. Приступљено 2. априла 2024.

CompaniesMarketcap (2024) Market capitalization of NVIDIA (NVDA). https://companiesmarketcap.com/nvidia/marketcap/. Приступљено 2. априла 2024.

De La Torre R (2023) How AI Is Shaping the Future of Cybercrime. https://www.darkreading.com/vulnerabilities-threats/how-ai-shaping-future-cybercrime. Приступљено 2. априла 2024.

De Luce D, Collier K (2024) Experts war-gamed what might happen if deepfakes disrupt the 2024 election. Things went sideways fast. In: NBC News. https://www.nbcnews.com/politics/2024-election/war-game-deepfakes-disrupt-2024-election-rcna143038. Приступљено 2. априла 2024.

Fang R, Bindu R, Gupta A, Zhan Q, Kang D (2024) LLM Agents can Autonomously Hack Websites. In: arXiv. https://arxiv.org/html/2402.06664v1. Приступљено 2. априла 2024.

Fu Z, Zhao TZ, Finn C (2024) Mobile ALOHA: Learning Bimanual Mobile Manipulation with Low-Cost Whole-Body Teleoperation. https://mobile-aloha.github.io/ Приступљено 2. априла 2024.

Goldman S (2024) In Davos, Sam Altman softens tone on AGI two months after OpenAI drama. In: VentureBeat. Приступљено 2. априла 2024.

Grace K, Stewart H, Sandkühler JF, Thomas S, Weinstein-Raun B, Brauner J (2024) Thousands of AI authors on the Future of AI. Preprint. In: arXiv. https://arxiv.org/abs/2401.02843. Приступљено 2. априла 2024.

InfoEpi Lab (2023) Inside CounterCloud, The Future of AI-Driven Disinformation. Приступљено 2. априла 2024.

Knight W (2023) It Costs Just $400 to Build an AI Disinformation Machine. In: Wired. https://www.wired.com/story/400-dollars-to-build-an-ai-disinformation-machine/. Приступљено 2. априла 2024.

Kudalkar D (2024) AGI in 2025? Elon Musk’s Prediction Clashes with Other Experts. In: Favtutor. https://favtutor.com/articles/agi-elon-musk-experts-prediction/. Приступљено 2. априла 2024.

McArthur N (2023) Gods in the machine? The rise of artificial intelligence may result in new religions. In: The Conversation. Приступљено 2. априла 2024.

Ministry of Industry and Information Technology (2023) 工业和信息化部关于印发《人形机器人创新发展指导意见》的通知 (Notice of the Ministry of Industry and Information Technology on the issuance of the „Guiding Opinions on the Innovation and Development of Humanoid Robots“). In: Ministry of Industry and Information Technology of the People’s Republic of China. Приступљено 2. априла 2024.

Mordor Intelligence (2024) Neuromorphic Chip Market Size & Share Analysis – Growth Trends & Forecasts (2024 – 2029). https://www.mordorintelligence.com/industry-reports/neuromorphic-chip-market. Приступљено 2. априла 2024.

Nellis S (2024) Nvidia CEO says AI could pass human tests in five years. In: Reuters. https://www.reuters.com/technology/nvidia-ceo-says-ai-could-pass-human-tests-five-years-2024-03-01/. Приступљено 2. априла 2024.

Pashentsev E (2020) Global Shifts and Their Impact on Russia-EU Strategic Communication. In: Pashentsev E (eds) Strategic Communication in EU-Russia Relations. Palgrave Macmillan, Cham. https://doi.org/10.1007/978-3-030-27253-1_8

Pashentsev E (2022) Report. Experts on the Malicious Use of Artificial Intelligence and Challenges to International Psychological Security. Publication of the International Center for Social and Political Studies and Consulting. Moscow: LLC «SAM Polygraphist».

Pashentsev E (ed.) (2023 a). General Content and Possible Threat Classifications of the Malicious Use of Artificial Intelligence to Psychological Security In: Pashentsev, E. (ed). The Palgrave Handbook of Malicious Use of AI and Psychological Security. Palgrave Macmillan, Cham. https://doi.org/10.1007/978-3-031-22552-9_24

Pashentsev, E. (2023 b). Prospects for a Qualitative Breakthrough in Artificial Intelligence Development and Possible Models for Social Development: Opportunities and Threats. In: Pashentsev, E. (ed) The Palgrave Handbook of Malicious Use of AI and Psychological Security. Palgrave Macmillan, Cham. https://doi.org/10.1007/978-3-031-22552-9_24

Promobot (2024) Service robot for business. https://promo-bot.ai/. Приступљено 2. априла 2024.

Public Citizen (2023) Tracker: State Legislation on Deepfakes in Elections. Приступљено 2. априла 2024.

Roser M (2023) AI timelines: What do experts in artificial intelligence expect for the future? In: Our World in Data. https://ourworldindata.org/ai-timelines. Приступљено 2. априла 2024.

Sahota N (2024) The AI Factor In Political Campaigns: Revolutionizing Modern Politics. In: Forbes. Приступљено 2. априла 2024.

Scharre P (2024) Future-Proofing Frontier AI Regulation. Projecting Future Compute for Frontier AI Models. March. CNAS.

Sifry ML (2024) How AI Is Transforming the Way Political Campaigns Work. In: The Nation. https://www.thenation.com/article/politics/how-ai-is-transforming-the-way-political-campaigns-work/. Приступљено 2. априла 2024.

Stepansky J (2023) ‘Wild West’: Republican video shows AI future in US elections. In: Al-Jazeera. https://www.aljazeera.com/news/2023/4/28/wild-west-republican-video-shows-ai-future-in-us-elections. Приступљено 2. априла 2024.

Tan K (2024) Google’s DeepMind CEO says the massive funds flowing into AI bring with it loads of hype and a fair share of grifting. In: Yahoo! https://news.yahoo.com/tech/googles-deepmind-ceo-says-massive-075912007.html. Приступљено 2. априла 2024.

Thompson P (2023) A developer built a ‘propaganda machine’ using OpenAI tech to highlight the dangers of mass-produced AI disinformation. In: Business Insider. Приступљено 2. априла 2024.

Unity (2022) Welcome, Ziva Dynamics! Youtube. Приступљено 15. јула 2022.

Weller C (2017) Universal basic income has support from some big names. In: World Economic Forum. https://www.weforum.org/agenda/2017/03/these-entrepreneurs-have-endorsed-universal-basic-income/. Приступљено 2. априла 2024.

West D (2023) How AI will transform the 2024 elections. In: The Brookings Institution. https://www.brookings.edu/articles/how-ai-will-transform-the-2024-elections/. Приступљено 2. априла 2024.

Western Sydney University (2023) World first supercomputer capable of brain-scale simulation being built at Western Sydney University.  Приступљено 2. априла 2024.

White House (2023) Fact Sheet: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence. Приступљено 2. априла 2024.

White House (2024) Fact Sheet: Biden-⁠Harris Administration Announces Key AI Actions Following President Biden’s Landmark Executive Order. Приступљено 2. априла 2024.

Zitser J, Mann J (2024) A global scramble to make humanoid robots is gearing up to be the 21st century’s space race. In: Yahoo! https://www.yahoo.com/tech/global-scramble-humanoid-robots-gearing-112301311.html. Приступљено 2. априла 2024.

 

Евгениј Пашенцев је виши истраживач на Институту за савремене међународне студије Дипломатске академије при Министарству спољних послова Руске Федерације. 

Извор: russiancouncil.ru

Превод: Милош Милојевић/Нови Стандард

Уредник Administrator
Happy
Happy
0 %
Sad
Sad
0 %
Excited
Excited
0 %
Sleepy
Sleepy
0 %
Angry
Angry
0 %
Surprise
Surprise
0 %
Поделите
Previous post Евгениј Пашењцев: Психолошке злоупотребе вештачке интелигенције (1)

Average Rating

5 Star
0%
4 Star
0%
3 Star
0%
2 Star
0%
1 Star
0%

Оставите одговор

Ваша адреса е-поште неће бити објављена. Неопходна поља су означена *