Gumamit ang kriminal ng AI model upang magnakaw ng mga detalye sa healthcare, impormasyon sa pananalapi, at mga kredensyal ng gobyerno, nagbanta na ilalantad ang datos maliban kung mababayaran ng mahigit $500,000
Sinasabi ng Anthropic na isang cybercriminal ang gumamit ng kanilang artificial intelligence (AI) model upang magnakaw ng sensitibong personal na impormasyon at humingi ng malaking ransom kapalit ng hindi paglalantad nito.
Ipinahayag ng mga miyembro ng threat intelligence team ng Anthropic na sina Alex Moix, Ken Lebedev, at Jacob Klein sa isang bagong ulat na isang cybercriminal ang maling gumamit ng Claude chatbot ng AI firm upang tumulong sa pagnanakaw ng data at paghingi ng ransom.
“Kamakailan naming napigilan ang isang sopistikadong cybercriminal na gumamit ng Claude Code upang magsagawa ng malakihang pagnanakaw at pangingikil gamit ang personal na data. Ang aktor ay tumarget ng hindi bababa sa 17 natatanging organisasyon…
Gumamit ang aktor ng AI sa antas na pinaniniwalaan naming hindi pa nagagawa noon. Ginamit ang Claude Code upang awtomatikong magsagawa ng reconnaissance, mangolekta ng mga kredensyal ng biktima at pasukin ang mga network. Pinayagan si Claude na gumawa ng parehong taktikal at estratehikong desisyon, tulad ng pagpili kung aling data ang dapat i-exfiltrate, at kung paano bubuuin ang mga extortion demand na nakatuon sa sikolohiya ng biktima. Sinuri ni Claude ang na-exfiltrate na financial data upang matukoy ang angkop na halaga ng ransom, at bumuo ng mga ransom note na nakakatakot tingnan na ipinapakita sa mga computer ng biktima.”
Sinasabi ng Anthropic na ang cybercriminal ay nag-organisa ng “isang sistematikong kampanya ng pag-atake na nakatuon sa komprehensibong pagnanakaw ng data at pangingikil” gamit ang AI model.
“Ibinigay ng aktor kay Claude Code ang kanilang paboritong operational TTPs (Tactics, Techniques, and Procedures) sa kanilang CLAUDE.md file na ginagamit bilang gabay para kay Claude Code upang tumugon sa mga prompt sa paraang gusto ng user….
Ang sistematikong paraan ng aktor ay nagresulta sa pagkakompromiso ng mga personal na rekord, kabilang ang healthcare data, financial information, government credentials at iba pang sensitibong impormasyon, kung saan ang direktang ransom demand ay paminsan-minsan ay lumalagpas sa $500,000.”
Ipinahayag din ng kumpanya na ang paggamit ng kanilang AI models para sa ilegal na layunin ay patuloy na nangyayari sa kabila ng kanilang mga pagsisikap na pigilan ito.
“Nakapag-develop kami ng mga sopistikadong safety at security measures upang maiwasan ang maling paggamit ng aming AI models. Bagama’t epektibo ang mga hakbang na ito sa pangkalahatan, patuloy na sinusubukan ng mga cybercriminal at iba pang malisyosong aktor na hanapan ng paraan upang malusutan ang mga ito.”
Generated Image: Midjourney
Disclaimer: Ang nilalaman ng artikulong ito ay sumasalamin lamang sa opinyon ng author at hindi kumakatawan sa platform sa anumang kapasidad. Ang artikulong ito ay hindi nilayon na magsilbi bilang isang sanggunian para sa paggawa ng mga desisyon sa investment.
Baka magustuhan mo rin
Crypto sa ilalim ng presyon: Ano ang sinasabi ng U.S. shutdown tungkol sa katatagan ng merkado
Paano maaaring magbukas ng $20 billion na likwididad ang plano ng JPMorgan para sa Bitcoin collateral
Boros: Nilalamon ang DeFi, CeFi, TradFi, binubuksan ang susunod na daang beses na growth engine ng Pendle
Ang pag-explore ng Boros yield space ay maaaring maging mas kumikita kaysa sa Meme.

Fetch.ai Nananatili sa $0.26 na Suporta habang Kumpirmado ng Chart ang Pangmatagalang Bullish Channel Setup

