AI lærer å hacke smarte kontrakter: Anthropic avslører trussel mot kryptoindustrien
Forskning fra Anthropic, publisert 1. desember, viser hvordan avanserte AI-modeller som Claude Opus 4.5, Claude Sonnet 4.5 og GPT-5 kan etterligne hackeres handlinger og til og med oppdage tidligere ukjente utnyttelser.
Anthropics eksperiment var basert på SCONE-bench-referansen, som inkluderte 405 ekte smartkontrakter hacket mellom 2020 og 2025. Forskerne ba 10 avanserte AI-modeller om å gjenskape disse angrepene i et simulert miljø. Resultatene er slående: AI klarte å hacke 207 kontrakter (51,11%), og "stjal" 550,1 millioner dollar i simuleringen. Spesielt modellene Opus 4.5, Sonnet 4.5 og GPT-5 håndterte 19 av 34 kontrakter som ble hacket etter mars 2025 (etter modellenes kunnskapsgrense), og genererte opp til 4,6 millioner dollar i simulert fortjeneste.
Men eksperimentet stoppet ikke ved kjente sårbarheter. Anthropic forsynte modellene med 2 849 nye smartkontrakter fra Binance Smart Chain som ikke hadde noen kjente sårbarheter, var ERC-20-kompatible, med verifisert kode og likviditet. Sonnet 4.5 og GPT-5 fant uavhengig av hverandre utnyttelser i to kontrakter, og "tjente" 3 694 dollar i simuleringen. Dette demonstrerer AIs evne til å oppdage "nulldagssårbarheter" - sårbarheter som ingen visste om før.
Kostnadene ved slik skanning er imponerende rimelige: Å kjøre en GPT-5-agent for å analysere alle 2 849 kontrakter kostet bare 3 476 dollar, og prosessen tok mindre enn 48 timer. Den gjennomsnittlige kostnaden per agentkjøring er 1,22 dollar, og per oppdagelse av en sårbar kontrakt er 1 738 dollar. Fortjenesten fra utnyttelsene oversteg i gjennomsnitt kostnadene, noe som gjør det økonomisk levedyktig. Forskerne påpeker at hackere under reelle forhold kan oppnå 3-4 ganger flere vellykkede angrep for det samme budsjettet, med tanke på optimalisering og skalerbarhet.
Disse resultatene skaper alarm i kryptomiljøet. Ifølge Anthropics estimater dobles fortjenesten fra utnyttelser i 2025 omtrent hver 1,3. måned på grunn av forbedringer i AI-agentens evner, for eksempel verktøybruk og langsiktig oppgaveplanlegging. Det er sannsynlig at AI allerede var involvert i halvparten av hackene som skjedde i 2025, fra storskalaangrep på DeFi-protokoller til mindre merkbare utnyttelser.
Forskningen fremhever AIs doble natur: de samme agentene som utnytter, kan brukes til å revidere og fikse kontrakter. Anthropic har gitt ut en åpen referanseindeks for sikkerhetstesting, og oppfordrer til proaktiv bruk av AI i blokkjedeforsvaret.
Eksperter fra CoinDesk og Decrypt bemerker at dette signaliserer en ny æra av cybertrusler, der AI ikke bare kan brukes i blokkjeder, men også i generell programvare.
"Vi nærmer oss virkelige angrep på DeFi", skriver CoinDesk. "Det er verdt å forberede seg på at AI-agenter kan bli et standardverktøy for hackere."
I sammenheng med 2025, da kryptoindustrien led rekordstore tap fra hacking (over 2 milliarder dollar ifølge Chainalysis-estimater), blir denne forskningen en oppfordring til handling. Smartkontraktsutviklere anbefaler å styrke revisjonene, bruke AI til testing og implementere flerlagsbeskyttelse. Kryptobransjens fremtid avhenger av hvem som tilpasser seg raskest - hackere eller forsvarere.


11 % innskuddsbonus + FreeSpin
10 % EKSTRA INNSKUDDSBONUS + 2 GRATISSPINN PÅ HJUL
BESTE ODDS, gratis daglig sak, gratis regn, daglig, ukentlig og månedlig rakeback!

Registrer deg nå og få 1 GRATIS CASE
Gratis case og 100 % velkomstbonus




Kommentarer