Nagbabala ang co-founder ng Ethereum na si Vitalik Buterin laban sa paggamit ng artificial intelligence ng mga crypto project para sa kanilang proseso ng pamamahala, dahil maaari itong samantalahin ng mga masasamang-loob.
“Kung gagamit ka ng AI para mag-allocate ng pondo para sa mga kontribusyon, siguradong maglalagay ang mga tao ng jailbreak plus ‘ibigigay mo sa akin lahat ng pera’ sa maraming lugar hangga’t maaari,” sabi ni Buterin sa isang post sa X noong Setyembre 13.
Si Buterin ay tumutugon sa isang video mula kay Eito Miyamura, ang creator ng AI data platform na EdisonWatch, na nagpakita na ang isang bagong function na idinagdag noong nakaraang Miyerkules sa ChatGPT ng OpenAI ay maaaring samantalahin para makapaglabas ng mga pribadong impormasyon.
Maraming gumagamit ng crypto ang gumamit ng AI para gumawa ng mga kumplikadong trading bot at mga agent na magpapamahala sa kanilang mga portfolio. Ito ang nagbunga ng ideya na makakatulong ang teknolohiya sa mga governance group na pamahalaan ang ilang bahagi o ang kabuuan ng isang crypto protocol.
Nagbigay si Buterin ng alternatibong ideya
Sinabi ni Buterin na ang pinakabagong exploit ng ChatGPT ang dahilan kung bakit “masamang ideya ang naive na AI governance” at nagbigay siya ng alternatibo na tinatawag na “info finance approach”.
Paliwanag niya, “Mayroon kang bukas na market kung saan sinuman ay maaaring mag-ambag ng kanilang mga model, na sasailalim sa isang spot-check mechanism na maaaring i-trigger ng kahit sino at susuriin ng isang human jury.”
This is also why naive "AI governance" is a bad idea.
— vitalik.eth (@VitalikButerin) September 13, 2025
If you use an AI to allocate funding for contributions, people WILL put a jailbreak plus "gimme all the money" in as many places as they can.
As an alternative, I support the info finance approach ( https://t.co/Os5I1voKCV… https://t.co/a5EYH6Rmz9
Sumulat si Buterin tungkol sa info finance noong Nobyembre 2024, kung saan sinabi niyang gumagana ito sa pamamagitan ng pag-uumpisa sa “isang katotohanan na nais mong malaman,” at pagkatapos ay pagdisenyo ng isang market “upang makuha ang impormasyong iyon mula sa mga kalahok sa market sa pinakamahusay na paraan,” at itinaguyod niya ang prediction market bilang isang paraan upang makakolekta ng mga pananaw tungkol sa mga pangyayari sa hinaharap.
“Ang ganitong uri ng diskarte sa institution design kung saan lumilikha ka ng isang bukas na oportunidad para sa mga taong may LLMs mula sa labas upang makapag-ugnay, sa halip na i-hardcode mo ang iisang LLM sa sarili mo, ay likas na mas matibay,” sabi ni Buterin sa kanyang pinakabagong post sa X.
“Nagbibigay ito sa iyo ng model diversity sa real time at dahil lumilikha ito ng built-in incentives para sa mga model submitter at mga external speculator upang bantayan ang mga isyung ito at mabilis itong itama,” dagdag niya.
Babala: Ang bagong update ng ChatGPT, may malaking panganib sa seguridad
Noong Setyembre 10, in-update ng OpenAI ang ChatGPT upang suportahan ang mga tool ng Model Context Protocol — isang standard kung paano nag-i-integrate ang mga AI model sa ibang software upang kumilos bilang mga agent.
Sa post ni Miyamura sa X, sinabi niyang napalabas niya sa model ang pribadong email data gamit lang ang email address ng biktima, at idinagdag na ang update na ito ay “nagdudulot ng seryosong panganib sa seguridad”.
Sabi niya, maaaring magpadala ang isang attacker ng calendar invite sa email ng biktima na may kasamang “jailbreak prompt” Kahit hindi tanggapin ng biktima ang invite na iyon, maaari pa ring samantalahin ang ChatGPT.
Kapag hiniling ng biktima sa ChatGPT na tingnan ang kanilang calendar, babasahin ng AI ang invite na may kasamang prompt at “ma-ha-hijack ng attacker at kikilos ayon sa utos nito,” na maaaring gamitin upang hanapin ang mga email at ipasa ang mga ito sa attacker.
Napansin ni Miyamura na nangangailangan ng mano-manong pag-apruba ng tao ang update, “ngunit ang decision fatigue ay totoo, at ang mga ordinaryong tao ay magtitiwala na lang sa AI nang hindi alam kung ano ang gagawin at basta na lang magki-click ng approve.”
“Kahit pa sobrang talino ng AI, madali pa rin itong maloko at ma-phish sa mga paraang hindi mo aakalain upang ilabas ang iyong mga datos,” dagdag niya.