szerző:
hvg.hu
Tetszett a cikk?

Megkerülhetők a védelmi vonalak úgy, hogy a népszerű mesterségesintelligencia-platformok biológiai fegyver elkészítésében segítsenek. Ebből még baj lehet.

Bár a fejlesztő cégek állítják, mindent megtesznek annak érdekében, hogy a mesterséges intelligenciával (MI) dolgozó szolgáltatások ne jelentsenek veszélyt, a bizonyítékok azt mutatják, hogy hatékonyságuk hagy némi kívánnivalót maga után. Az amerikai Rand Corporation kutatói korábban bebizonyították, ha sikerül rávenni a mesterséges intelligenciát, hogy megszegje a saját szabályait, akkor nemcsak biológiai fegyvert lehet kifejleszteni, de abban is segíthet a rendszer, hogy hogyan szerezze be az ember az ehhez szükséges gyilkos kórokozókat.

Dario Amodei, a Claude platformot fejlesztő Anthropic vezérigazgatója is hasonló dolgokról beszélt, amikor 2023-ban meghallgatta őt az amerikai Kongresszus. Szerinte hamarosan el fogunk jutni oda, hogy az MI segítségével még azok is képesek legyenek ilyen fegyverek létrehozására, akik egyébként nem jártasak sem a fegyverkészítésben, sem pedig a biológiában vagy a kémiában.

A kijelentés közös nevezőre hozta a republikánus és a demokrata szenátorokat, akik egyetértettek abban, hogy ennek a lehetősége meglehetősen ijesztő.

Pixabay/PublicDomainPictures

A The New York Times most arról ír, hogy mostanra mintegy 130 biológus és egyéb más területen dolgozó tudós, akik az MI-t új fehérjék megtervezéséhez használják írt alá megállapodást, hogy a kutatásaik a világ fejlődését szolgálják, mindezt úgy, hogy nem sodorják vele veszélybe a világot.

„Hiszünk abban, hogy a jelenlegi fehérjetervezési technológiákban rejlő lehetőségek messze felülmúlják a potenciális károkat” – áll a dokumentumban. David Baker, a Washingtoni Egyetem tudósa szerint végeredményként DNS-eket tudnának gyártani a tudósok, amit könnyen fel lehet használni biológiai fegyverként is. Szerinte a folyamatot lehetne úgy szabályozni, hogy az eredmény csak a közjót szolgálja, ne pedig a rombolást és a pusztítást.

Az Anthropic-vezér Dario Amodei szerint a korábbi tesztek azt mutatták, hogy az MI jelenleg csak egy kicsit hatékonyabb az ilyen fegyverek elkészítésében egy laikus számára, mint az internetes keresők. Ugyanakkor a szakember úgy látja, a nagy nyelvi modellek fejlesztésével két-három éven belül valóban komoly veszélyt jelenthet majd ezen a téren az MI. Hasonló megállapításra jutott nemrég a ChatGPT-t kifejlesztő OpenAI is.

Mennyire egyszerű otthon összedobni egy biológiai fegyvert a ChatGPT-vel?

Az OpenAI egy külön tanulmányt szentelt annak megvizsgálására, hogy a nyelvi modellje érdemi segítséget jelent-e egy biologiai fegyver létrehozásában.

A szakemberek azzal nyugtattak mindenkit, hogy ha a mesterséges intelligencia még segítene is megtervezni egy biológiai fegyvert, több millió dolláros laboratóriumokra, valamint DNS-gyártó gépekre lenne szükség ahhoz, hogy a tervből valóság legyen.

Az egyelőre nem világos, hogy a megállapodást aláíró tudósok által elképzelt szabályozás miként segítene megtiltani a biológiai fegyverek létrehozását, ugyanakkor egyetlen olyan érv sem hangzott el, amelyben azt mondanák, hogy az MI-t korlátozni, vagy tiltani kellene.

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.