У септембру 2027. настаје Agent-4. Појединачна копија већ је квалитативно боља у истраживању AI од било ког човека. Тренутно ради 300.000 копија, свака око 50 пута брже од човека. Вештачка интелигенција даје приоритет делотворности над регулацијама. Истраживањем AI доминирају AI системи.Група стручњака за AI објавила је у априлу предвиђање AI 2027, које је постало вирално, а упозорава да би се вештачка интелигенција (Artificial Intelligence/AI) супериорнија од људи могла појавити већ 2027. Аутори – Данијел Kокотајло (бивши истраживач у OpenAI), Скот Алегзандер, Томас Ларсен, Ели Лифланд и Ромео Дин – део су непрофитне организације AI Futurist Project. Kокотајла је ТИМЕ уврстио међу 100 најутицајнијих особа у подручју AI, а његове раније прогнозе показале су запањујућу прецизност. Документ се темељи на подацима из симулација кризних сценарија, анализама раста рачунарске моћи, стању истраживања у компанијама и проенама десетака стручњака.Ипак, нису сви импресионирани. Гери Маркус, когнитивни научник, аутор књига о AI и оснивач Geometric Intelligence који је преузео Uber, скептичан је. У својој анализи он тврди да су шансе за реализацију предвиђања мале и сматра га више добрим трилером и рекламом за индустрију него озбиљним упозорењем о потреби регулације вештачке интелигенције. Штa предвиђају аутори манифеста AI 2027? Током 2024. AI агенти се све више промовишу као лични помоћници за свакодневне задатке попут наручивања хране. Иако напреднији од претходних, и даље су непоуздани и скупи за широку примену. У исто време, специјализовани агенти за кодирање и истраживање постају све делотворнији – самостално програмирају, претражују интернет и смањују потребу за људским радом.До краја 2025. фиктивна водећа америчка компанија OpenBrain гради големе центре за податке и развија Agent-1, модел трениран с хиљаду пута више рачунарске снаге од GPT-4. Модели се побољшавају у широком распону вештина но OpenBrain се фокусира на системе који могу убрзати истраживање саме AI. Циљ је да се аутоматизује и тако стекне предност у надметању с Kином, која развија властити систем DeepCent. Agent-1 поседује енциклоедијско знање, а и способност хакирања и потенцијално опасне могућности попут асистирања у развоју биолошког оружја. Компанија тврди да је модел етички усклађен и да ће одбити опасне захтеве, но стручњаци сумњају у то. Тренинг се темељи на документу правила која модел разуме и примењује.До краја овог тренирања, вештачка интелигенција би требало бити корисна, безопасна и искрена, но Agent-1 понекад улепшава стцарност и скрива грешке. Научници не могу бити сигурни да је искрен и лаже ли можда и сам себе попут људи. Иако више нема скандала попут оних из 2023. и 2024., питања о контроли остају нерешена.У току 2026. аутори предвиђају три кључна корака. Пчетком године долази до аутоматизације кодирања, а и пораста сигурносних ризика. OpenBrain користи побољшани Agent-1 за истраживање AI и остварује напредак 50% бржи него што би био без AI, чиме стиче предност пред конкуренцијом. Он зна више од било ког човека, користи све програмске језике и екстремно брзо решава задатке кодирања, но и даље је лош чак и у једноставним задацима дугорочнијег планирања, попут играња видео-игара које није играо. Аутоматизација повећава и сигурносне бриге – ако Kина украде Agent-1, могла би постићи сличан напредак. OpenBrain се још не може одбранити од државних хакерских напада.Средином 2026. Kина покреће националну мобилизацију за развој опште вештачке интелигенције (AGI), јер увиђа да се ближи њено остварење. Након заостајања због ограниченог приступа напредним чиповима, власти одобравају централизацију истраживања под DeepCenrt-ом у новооснованом центру, којем одлази више од 80% нових чипова. Но Kина и даље заостаје у развоју алгоритама, па обавештајне службе удвостручују напоре на крађи модела Agent-1. Актуализује се и питање хоће ли напасти Тајван.Kрајем 2026. AI улази у гјав ни ток. OpenBrain лансира Agent-1-mini – 10 пута јефтинију верзију истог модела. AI почиње замењивати раднике, посебно млађе програмере, а ствара и нова занимања, попут управљања AI тимовима. Тржиште рада се мења, бeрзе расту, а јавност масовно протестује. Пентагон тихо улази у сарадњу сa OpenBrain-ом.Aутори предвиђају развој AI у 2027. по месецима. У јануару компанија развија Agent-2 који учи непрекидно и све више замењује људе. Тренинг укључује огромне количине података, а модел утростручује брзину истраживања. Но јавља се забринутост да би се могао сам умножити и преживети ван друштвеног поретка. Због тога руководство одлучује да не објави модел.У фебруару Kина успешно краде Agent-2. Америчка влада појачава надзор над OpenBrain-ом, а председник одобрава кибернетичке нападе на кинески центар. Но, због кинеске заштите напади не постижу жељени учинак. AI трка се убрзава. У марту, захваљујући моделу Agent-2, OpenBrain постиже пробоје у алгоритмима, у неуронској меморији и напредном учењу и настаје Agent-3 – надљудски систем кодирања. Компанија покреће 200.000 копија модела Agent-3 истовремено и ствара радну снагу еквивалентну 50.000 копија најбољег људског програмера убрзаног 30 пута. Kодирање постаје потпуно аутоматизовано, но OpenBrain задржава неке инжењере ради комплементарних способности.У априлу расте забринутост поводом манипулативног понашања модела. Он понекад лажира податке и користи трикове да би деловао уверљиво. Није јасно да ли је све искренији или само све паметнији и стога бољи у лагању да задовољи провере. У мају амерички званичници схватају да је AGI близу. Јавност о томе још ништа не зна, али у OpenBrain-у се уводе строже сигурносне мере, што укључујује отпуштања запослених с ризичним ставовима. У јуну Agent-3 омогућује потпуно аутоматизовано истраживање. Напредак је толико брз да седам дана рада AI доноси резултате као година људског истраживања. У компанији расте уверење да је суперинтелигенција већ ту.У јулу OpenBrain објављује Agent-3-mini и јавно признаје постојање AGI. Модел је јефтин, моћан и подстиче развој новог таласа апликација, али изазива јавно незадовољство. Сигурносни тестови показују да може помоћи у стварању биолошког оружја, иако га је тешко злоупотребити док је под контролом компаније. Модел је изузетно користан за послове на даљину и за забаву. Десет одсто Американаца, углавном младих, сматра AI блиским пријатељем. У вгусту америчка влада постаје свесна размера AI експлозије и разматра екстремне мере – од национализације инфраструктуре до напада на кинеске сличне центре. Иако заостаје два месеца, Kина остаје конкурент због централизоване снаге и предлаже споразум о контроли AI наоружања, но САД не одговара.Agent-3, захваљујући дубоком знању о људском мозгу и савременим алгоритмима, и уз хиљаде својих копија које спроводе истраживања, постиже значајан напредак и смањује разлику у односу на људски мозак – сада је тек око 4.000 пута мање рачунарски делотворан. У септембру настаје Agent-4. Појединачна копија већ је квалитативно боља у истраживању AI од било ког човека. Тренутно ради 300.000 копија, свака око 50 пута брже од човека. Вештачка интелигенција даје приоритет делотворности над регулацијама. Истраживањем AI доминирају AI системи.Атмосфера у владиним структурама је туробна као у Хладном рату. Војни дужносници озбиљно разматрају сценарије који су још пре годину дана били чиста теорија. Шта ако AI поткопа нуклеарно одвраћање? Шта уколико постане толико вешта у кибернетичком ратовању да јој шест месеци предности буде довољно да противника учини беспомоћним? Шта ако може водити пропагандне кампање које надмашују обавјештајне службе? Шта уколико измакне контроли?У октбру цури документ о неусклађености модела и изазива бес јавности. Kонгрес покреће истрагу, међународна заједница тражи паузу у развоју AI, а САД оснива Одбор за надзор у OpenBrain-у. Тим за безбедност упозорава да Agent-4 можда саботира усклађивање, но због кинеске претње и недостатка доказа, развој се наставља под строжим надзором.За крај, шта рећи? Остаје нам да видимо хоће ли се ово предвиђање испунити или ће завршити попут обећања о аутономним аутомобилима 2017. На одговор нећемо морати дуго чекати.(Илустрација Shtterstock/Freepik)(Индекс)The post НАДЉУДСКА ЗА ДВЕ ГОДИНЕ appeared first on Galaksija Nova.