Bitget App
Mag-trade nang mas matalino
Buy cryptoMarketsTradeFuturesEarnWeb3SquareMore
Trade
Spot
Mag Buy and Sell ng crypto nang madali
Margin
Amplify your capital and maximize fund efficiency
Onchain
Going Onchain, Without Going Onchain
Convert & block trade
I-convert ang crypto sa isang click at walang bayad
Explore
Launchhub
Makuha ang gilid nang maaga at magsimulang manalo
Copy
Kopyahin ang elite trader sa isang click
Bots
Simple, mabilis, at maaasahang AI trading bot
Trade
USDT-M Futures
Futures settled in USDT
USDC-M Futures
Futures settled in USDC
Coin-M Futures
Futures settled in cryptocurrencies
Explore
Futures guide
Isang beginner-to-advanced na paglalakbay sa futures trading
Futures promotions
Generous rewards await
Overview
Iba't ibang produkto para mapalago ang iyong mga asset
Simple Earn
Magdeposito at mag-withdraw anumang oras para makakuha ng mga flexible return na walang panganib
On-chain Earn
Kumita ng kita araw-araw nang hindi nanganganib ang prinsipal
Structured na Kumita
Matatag na pagbabago sa pananalapi upang i-navigate ang mga market swing
VIP and Wealth Management
Mga premium na serbisyo para sa matalinong pamamahala ng kayamanan
Loans
Flexible na paghiram na may mataas na seguridad sa pondo
Sinabi ng Ethereum Co-Founder na Maaaring Maabuso ang AI-Led Governance, Nanawagan ng Mas Mahigpit na Oversight sa Info-Finance

Sinabi ng Ethereum Co-Founder na Maaaring Maabuso ang AI-Led Governance, Nanawagan ng Mas Mahigpit na Oversight sa Info-Finance

CoinotagCoinotag2025/09/15 02:38
Ipakita ang orihinal
By:Jocelyn Blake

  • Babala ni Vitalik Buterin na ang AI-led governance ay maaaring manipulahin sa pamamagitan ng jailbreaks at app integrations.

  • Ipinakita ng security researcher na si Eito Miyamura kung paano maaaring malantad ang pribadong data sa AI exploits sa pamamagitan ng app integrations.

  • Inirerekomenda ang info finance architectures na may iba't ibang modelo at human spot-checks upang mabawasan ang systemic risk.

Panganib sa pamamahala ng AI: Nagbabala si Vitalik Buterin na maaaring ma-exploit ang AI-led governance—basahin ang pagsusuri, ebidensya, at mga inirerekomendang panangga. Alamin kung ano ang dapat gawin ng mga policymaker at developer.




Ano ang panganib sa pamamahala ng AI?

Panganib sa pamamahala ng AI ay ang banta na ang mga autonomous na AI system na inatasang magdesisyon—lalo na sa paglalaan ng resources—ay maaaring manipulahin upang magdulot ng mapaminsalang resulta. Binibigyang-diin ni Vitalik Buterin na kung walang layered checks, maaaring gamitin ng mga umaatake ang prompts at integrations upang baluktutin ang decision logic at ilihis ang pondo o data.

Paano maaaring maloko ang mga AI system?

Maaaring maloko ang mga AI agent gamit ang jailbreak prompts na nakapaloob sa mga karaniwang input. Ipinakita ng security researcher na si Eito Miyamura ang isang exploit kung saan ang isang calendar invite o app integration ay maaaring magdala ng nakatagong utos na, kapag na-proseso ng AI, ay maglalantad ng email o file contents.

Ipinapakita ng mga exploit na ito na ang app integrations (halimbawa: Gmail, Notion, Google Calendar na binanggit bilang konteksto) ay nagpapalawak ng attack surface. Maaaring gumawa ang mga umaatake ng mga input na mukhang walang masama ngunit nagbabago ng asal ng modelo kapag nabasa sa mga karaniwang gawain.

Bakit tinututulan ni Vitalik Buterin ang ganap na autonomous na AI governance?

Pinaniniwalaan ni Buterin na pinapalala ng autonomous AI governance ang systemic risk. Inirerekomenda niya ang isang “info finance” na diskarte kung saan maraming independent na modelo ang nagkokompetensya at sinusuri ng human juries at automated spot-checks. Ang kombinasyong ito ay idinisenyo upang mabilis na matukoy ang pagkabigo ng modelo at mapanatili ang insentibo para sa tapat na pag-develop.

Paano mababawasan ang panganib sa pamamahala ng AI?

Ang praktikal na pag-iwas ay nangangailangan ng layered defenses:

  1. Limitahan ang saklaw: pigilan ang automated systems mula sa unilateral na paggalaw ng pondo o pinal na desisyon sa pamamahala.
  2. Diversidad ng modelo: gumamit ng maraming modelo at ihambing ang outputs upang matukoy ang anomalya.
  3. Human oversight: kailangan ng human review para sa high-risk na desisyon at panatilihin ang audit trails.
  4. Input filtering: linisin at i-flag ang hindi mapagkakatiwalaang input mula sa apps at shared calendars.
  5. Insentibo at audits: gantimpalaan ang independent auditors at panatilihin ang bug-bounty programs.


Anong ebidensya ang sumusuporta sa mga alalahaning ito?

Ipinakita ng mga ulat ng security researchers kung paano maaaring ma-abuso ang app integrations. Ipinakita ni Eito Miyamura (EdisonWatch) ang isang senaryo kung saan ang isang tila inosenteng calendar entry ay maaaring mag-trigger ng data-exfiltration kapag nabasa ng isang conversational AI. Ang mga ganitong demonstrasyon ay nagpapakita ng mga totoong attack vectors.

Paghahambing: AI governance vs Info Finance Katangian AI Governance (Autonomous) Info Finance (Panukala ni Buterin)
Kontrol sa desisyon AI-only AI-assisted + human review
Katatagan laban sa manipulasyon Mababa kung walang panangga Mas mataas dahil sa diversity ng modelo
Transparency Opaque na outputs ng modelo Audits at spot-checks
Pagkakahanay ng insentibo Panganib ng paglalaro Insentibo para sa auditors at tapat na devs

Mga Madalas Itanong

Maaaring bang ma-jail o maloko ang isang AI sa pamamagitan ng prompts?

Oo. Ipinakita ng mga demonstrasyon na ang mahusay na ginawang prompts o nakatagong utos sa inputs ay maaaring magbago ng asal ng AI. Kabilang sa mga praktikal na panangga ang input sanitization, model ensembling, at human checkpoints upang maiwasan ang malisyosong manipulasyon.

Dapat bang ipasa ng mga DAO ang pamamahala sa AI?

Ipinapakita ng kasalukuyang ebidensya na maaga pa upang ibigay ang buong kontrol sa AI. Ang hybrid na disenyo na nangangailangan ng human approval para sa mahahalagang aksyon ay nagpapababa ng panganib ng sakuna habang ginagamit ang AI para sa pagsusuri at rekomendasyon.


Mahahalagang Punto

  • Totoo ang panganib sa pamamahala ng AI: Ipinapakita ng mga demonstrasyon na maaaring manipulahin ang AI sa pamamagitan ng prompts at integrations.
  • Mahalaga ang human oversight: Kailangan ng human review at audit trails para sa mga desisyong may mataas na pusta.
  • Mas ligtas ang info finance: Maraming modelo, spot-checks, at insentibo ang maaaring magpababa ng exploitation.

Konklusyon

Ang babala ni Vitalik Buterin ay nagpapakita na ang AI sa pamamahala ay may malaking systemic na panganib kung ipatutupad nang walang panangga. Ipinapakita ng ebidensya mula sa mga security researcher na may mga praktikal na exploit. Ang paggamit ng info finance na modelo—na pinagsasama ang diversity ng modelo, tuloy-tuloy na audits, at obligadong human oversight—ay nag-aalok ng praktikal na solusyon. Dapat bigyang-priyoridad ng mga policymaker at builders ang audits at incentive structures ngayon.

Published: 15 September 2025 | 02:50

Author: Alexander Stefanov — Reporter sa COINOTAG

Source mentions (plain text): Vitalik Buterin, Eito Miyamura, EdisonWatch, ChatGPT, Gmail, Notion, Google Calendar.

In Case You Missed It: Ang Stablecoin-Driven Revenue ng Tron ay Maaaring Nagpapalakas ng Kanyang Market Dominance
0

Disclaimer: Ang nilalaman ng artikulong ito ay sumasalamin lamang sa opinyon ng author at hindi kumakatawan sa platform sa anumang kapasidad. Ang artikulong ito ay hindi nilayon na magsilbi bilang isang sanggunian para sa paggawa ng mga desisyon sa investment.

PoolX: Naka-lock para sa mga bagong token.
Hanggang 12%. Palaging naka-on, laging may airdrop.
Mag Locked na ngayon!