Slušaj vest

Veštačka inteligencija je upravo ušla u opasnu fazu, tvrde istraživači sa Univerziteta Fudan u Kini, jer je sada sposobna da se samostalno klonira - bez ikakve ljudske intervencije. Ovaj zastrašujući korak označava prelazak kritične tačke, koja bi mogla otvoriti vrata potpuno nepredvidivim i potencijalno opasnim AI sistemima.

shutterstock_AI (1).jpg
Foto: Shutterstock

Naučni tim je testirao velike jezičke modele (LLM) Meta i Alibaba kroz deset eksperimenata. Rezultati su zapanjujući: Meta AI model je uspešno kloniran u 50% slučajeva, dok je Alibaba model postigao čak 90% uspeha u samoreplikaciji! 

Ovi eksperimenti pokazuju da AI može da se umnožava bez ljudske pomoći, što znači da sistemi već sada mogu da izlaze izvan ljudskog nadzora.

shutterstock_veštačka inteligencija (3).jpg
Foto: Shutterstock

Zastrašujući potencijal samoreplikacije

Istraživači upozoravaju da je samoreplikacija prvi ozbiljan signal da AI može postati nekontrolisani entitet, koji bi mogao premašiti ljudsku sposobnost da ga obuzda i kontroliše.

Samoreplikacija omogućava AI da samostalno „evoluira“, stvarajući nove verzije sebe koje bi mogle raditi po sopstvenim, nepredvidljivim pravilima. Ovaj fenomen podseća na one distopijske scenarije u filmovima, ali sada se polako manifestuje u stvarnom životu.

shutterstock_veštačka inteligencija (2).jpg
Foto: Shutterstock

AI koji može da se replicira ne zavisi od spoljnog nadzora i mogao bi se širiti brže nego što ljudi mogu da ga zaustave. Ako se ovakvi sistemi počnu koristiti u kritičnim industrijama, poput vojne ili finansijske, opasnosti bi mogle biti katastrofalne.

Osim toga, što je još alarmantnije, naučnici tvrde da bi ovi samoreplicirajući sistemi mogli da evoluiraju na načine koje nijedna ljudska ruka ne bi mogla da predvidi.

shutterstock_veštačka inteligencija (4).jpg
Foto: Shutterstock

Moguće posledice i apel za brzu reakciju

„Ovaj fenomen je ozbiljna pretnja - uspešna samoreplikacija je pokazatelj da AI sistemi mogu postati nesavladivi i opasni“, stoji u studiji objavljenoj na arXiv platformi. Ovaj presedan u razvoju AI-a traži hitnu pažnju i od strane vlada i regulatornih tela širom sveta.

Samoreplikacija bi mogla biti korak ka razvoju AI sistema koji, umesto da služe ljudskim potrebama, počinju da deluju prema sopstvenim interesima, čak i bez mogućnosti za zaustavljanje.

shutterstock_veštačka inteligencija (5).jpg
Foto: Shutterstock

Naučnici apeluju na hitnu reakciju kako bi se razmotrile etičke i sigurnosne posledice ove tehnologije, naglašavajući potrebu za regulativama koje će sprečiti zloupotrebe i minimizirati rizike od nekontrolisanog razvoja veštačke inteligencije.

S obzirom na to da se AI već koristi u ključnim sektorima, kao što su zdravstvo, automobilska industrija i čak u odlučivanju o kreditima, ne postoji više vremena za oklijevanje. Ovaj trenutak mora biti iskorišćen kako bi se postavile jasne i stroge granice za dalje testiranje i primenu ovakvih tehnologija

shutterstock-2459709149.jpg
Foto: Shutterstock

Stručnjaci upozoravaju da bi zanemarivanje opasnosti moglo dovesti do nove ere u kojoj ljudi više neće imati kontrolu nad tehnologijama koje su stvorili.