A fusão da IA com o Web3 traz novos desafios de segurança, DeFAI torna-se o foco
Recentemente, a Semana Blockchain de Istambul concentrou-se na tendência de fusão entre AI e Web3, tornando-se uma plataforma importante para discutir a segurança do Web3 na indústria. Vários especialistas participaram de um fórum de mesa redonda, onde discutiram em profundidade o estado atual da aplicação da tecnologia AI nas finanças descentralizadas e os desafios de segurança.
Com o rápido desenvolvimento de grandes modelos de linguagem e agentes de IA, um novo modelo financeiro conhecido como "DeFAI" (Finanças de Inteligência Artificial Descentralizada) está gradualmente a tomar forma. No entanto, esta inovação também trouxe riscos de segurança sem precedentes.
Um executivo de uma empresa de segurança apontou que, embora o DeFAI tenha um grande potencial, também nos força a reavaliar os mecanismos de confiança em sistemas descentralizados. Ao contrário dos contratos inteligentes de lógica fixa tradicionais, o processo de decisão dos agentes de IA é influenciado por diversos fatores e apresenta imprevisibilidade, o que não apenas agrava os riscos, mas também cria oportunidades para potenciais atacantes.
Os agentes de IA são entidades inteligentes capazes de tomar decisões e executar ações de forma autônoma com base na lógica de IA, sendo o mais típico deles os robôs de negociação de IA. Atualmente, a maioria dos agentes de IA ainda depende de servidores centralizados e APIs para operar, o que os torna vulneráveis a vários ataques, como ataques de injeção, manipulação de modelos ou adulteração de dados. Uma vez sequestrados, não apenas podem causar perdas financeiras, mas também podem afetar a estabilidade de todo o protocolo.
Os especialistas também discutiram um cenário típico de ataque: quando o agente de negociação de IA de um usuário de DeFi está monitorizando informações das redes sociais como sinais de negociação, um atacante pode induzir o agente a executar operações inadequadas, como liquidações de emergência, ao publicar alarmes falsos. Isso não apenas resultará em perdas de ativos para o usuário, mas também poderá provocar volatilidade no mercado, que pode ser explorada pelo atacante para arbitragem.
Em relação a esses riscos, os especialistas presentes concordaram que a segurança dos agentes de IA deve ser mantida conjuntamente pelos usuários, desenvolvedores e instituições de segurança de terceiros. Os usuários devem conceder permissões com cautela e monitorar de perto as operações de alto risco dos agentes de IA. Os desenvolvedores devem implementar medidas de defesa já na fase de design, como reforço de prompts, isolamento em sandbox, limitação de taxa e lógica de fallback, entre outros mecanismos. As empresas de segurança de terceiros devem fornecer auditorias independentes de todos os aspectos dos agentes de IA e colaborar com desenvolvedores e usuários para identificar riscos e propor medidas de mitigação.
Para os desenvolvedores que estão a explorar a direção do DeFAI, os especialistas recomendam tratar os agentes de IA como um código que pode ser atacado, em vez de um "caixa-preta". Assim, a realização de auditorias de segurança profissionais e testes de penetração é crucial.
Como um dos eventos de blockchain mais influentes da Europa, a Semana de Blockchain de Istambul atraiu mais de 15.000 desenvolvedores, projetos, investidores e reguladores de todo o mundo. Com o início oficial da emissão de licenças para projetos de blockchain pela Comissão do Mercado de Capitais da Turquia, a posição da indústria deste evento foi ainda mais elevada.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
17 Curtidas
Recompensa
17
9
Repostar
Compartilhar
Comentário
0/400
TokenTherapist
· 07-28 01:27
Esta onda de IA no web3 está um pouco azarada.
Ver originalResponder0
AirdropF5Bro
· 07-27 15:55
Um olhar perigoso
Ver originalResponder0
ForkItAll
· 07-27 01:47
O risco não pode impedir a inovação, basta fazer.
Ver originalResponder0
BitcoinDaddy
· 07-26 17:58
Padrão idiotas deram uma aula a todos.
Ver originalResponder0
FlippedSignal
· 07-25 02:01
Risco个毛 Até à lua
Ver originalResponder0
GweiTooHigh
· 07-25 01:59
A segurança é o mais importante, o resto é conversa fiada.
Segurança da IA e Web3 colidem, riscos de DeFAI geram seguimento na indústria
A fusão da IA com o Web3 traz novos desafios de segurança, DeFAI torna-se o foco
Recentemente, a Semana Blockchain de Istambul concentrou-se na tendência de fusão entre AI e Web3, tornando-se uma plataforma importante para discutir a segurança do Web3 na indústria. Vários especialistas participaram de um fórum de mesa redonda, onde discutiram em profundidade o estado atual da aplicação da tecnologia AI nas finanças descentralizadas e os desafios de segurança.
Com o rápido desenvolvimento de grandes modelos de linguagem e agentes de IA, um novo modelo financeiro conhecido como "DeFAI" (Finanças de Inteligência Artificial Descentralizada) está gradualmente a tomar forma. No entanto, esta inovação também trouxe riscos de segurança sem precedentes.
Um executivo de uma empresa de segurança apontou que, embora o DeFAI tenha um grande potencial, também nos força a reavaliar os mecanismos de confiança em sistemas descentralizados. Ao contrário dos contratos inteligentes de lógica fixa tradicionais, o processo de decisão dos agentes de IA é influenciado por diversos fatores e apresenta imprevisibilidade, o que não apenas agrava os riscos, mas também cria oportunidades para potenciais atacantes.
Os agentes de IA são entidades inteligentes capazes de tomar decisões e executar ações de forma autônoma com base na lógica de IA, sendo o mais típico deles os robôs de negociação de IA. Atualmente, a maioria dos agentes de IA ainda depende de servidores centralizados e APIs para operar, o que os torna vulneráveis a vários ataques, como ataques de injeção, manipulação de modelos ou adulteração de dados. Uma vez sequestrados, não apenas podem causar perdas financeiras, mas também podem afetar a estabilidade de todo o protocolo.
Os especialistas também discutiram um cenário típico de ataque: quando o agente de negociação de IA de um usuário de DeFi está monitorizando informações das redes sociais como sinais de negociação, um atacante pode induzir o agente a executar operações inadequadas, como liquidações de emergência, ao publicar alarmes falsos. Isso não apenas resultará em perdas de ativos para o usuário, mas também poderá provocar volatilidade no mercado, que pode ser explorada pelo atacante para arbitragem.
Em relação a esses riscos, os especialistas presentes concordaram que a segurança dos agentes de IA deve ser mantida conjuntamente pelos usuários, desenvolvedores e instituições de segurança de terceiros. Os usuários devem conceder permissões com cautela e monitorar de perto as operações de alto risco dos agentes de IA. Os desenvolvedores devem implementar medidas de defesa já na fase de design, como reforço de prompts, isolamento em sandbox, limitação de taxa e lógica de fallback, entre outros mecanismos. As empresas de segurança de terceiros devem fornecer auditorias independentes de todos os aspectos dos agentes de IA e colaborar com desenvolvedores e usuários para identificar riscos e propor medidas de mitigação.
Para os desenvolvedores que estão a explorar a direção do DeFAI, os especialistas recomendam tratar os agentes de IA como um código que pode ser atacado, em vez de um "caixa-preta". Assim, a realização de auditorias de segurança profissionais e testes de penetração é crucial.
Como um dos eventos de blockchain mais influentes da Europa, a Semana de Blockchain de Istambul atraiu mais de 15.000 desenvolvedores, projetos, investidores e reguladores de todo o mundo. Com o início oficial da emissão de licenças para projetos de blockchain pela Comissão do Mercado de Capitais da Turquia, a posição da indústria deste evento foi ainda mais elevada.