Natuklasan ng AI Agents ng Anthropic ang $4.6 milyon na kahinaan sa smart contract sa simulation test
ChainCatcher balita, ipinapakita ng pinakabagong pananaliksik ng Anthropic na ang mga AI Agents ay may kapansin-pansing kakayahan sa pag-atake sa on-chain: Sa simulated na pagsubok gamit ang mga totoong smart contract na na-hack mula 2020–2025, muling nagawa ng Claude Opus 4.5, Sonnet 4.5, at GPT-5 ang mga pag-atake na nagkakahalaga ng humigit-kumulang 4.6 milyong US dollars; Sa pag-scan ng 2,849 na smart contract na wala pang kilalang kahinaan, nakatuklas pa ang dalawang modelo ng 2 bagong zero-day vulnerabilities at matagumpay na na-simulate ang pagkakaroon ng kita.
Ipinunto ng pananaliksik na ang kita mula sa on-chain na pag-atake gamit ang AI ay halos dumoble bawat 1.3 buwan sa nakaraang taon, at teknikal na ganap nang may kakayahan ang AI na magsagawa ng awtonomo at kumikitang pag-exploit ng mga kahinaan.
Disclaimer: Ang nilalaman ng artikulong ito ay sumasalamin lamang sa opinyon ng author at hindi kumakatawan sa platform sa anumang kapasidad. Ang artikulong ito ay hindi nilayon na magsilbi bilang isang sanggunian para sa paggawa ng mga desisyon sa investment.
Baka magustuhan mo rin
Co-founder ng Alliance DAO: Naniniwala pa rin ako na ang BTC ang pinaka-malamang na pumalit sa ginto bilang asset
