miércoles, diciembre 3, 2025
InicioEconomiaIA: La Nueva Amenaza para los Contratos Inteligentes

IA: La Nueva Amenaza para los Contratos Inteligentes

Alertan sobre los Riesgos de la IA en Contratos Inteligentes: Nuevos Exploits a la Vista

Un reciente estudio ha destapado la preocupante capacidad de modelos de inteligencia artificial como Claude Opus 4.5 y GPT-5 para replicar ataques reales en el ámbito de las finanzas descentralizadas.

La investigación de Anthropic y el programa Machine Learning Alignment & Theory Scholars (MATS) ha puesto bajo la lupa cómo modelos avanzados de IA pueden ejecutar exploits en contratos inteligentes. En un entorno controlado, estos sistemas lograron analizar y replicar ataques históricos, encendiendo alarmas en la comunidad de seguridad digital.

Exploits en Contratos: Un Problema Emergiendo

Los modelos Claude Opus 4.5, Claude Sonnet 4.5 y GPT-5 no solo identificaron vulnerabilidades en contratos inteligentes, sino que además produjeron exploits funcionales que en el pasado provocaron pérdidas superiores a 4,6 millones de dólares. La investigación se centró en contratos afectados entre 2020 y 2025, revelando que más de la mitad de los diez sistemas de IA probados lograron explotar debilidades conocidas.

Acciones Maliciosas y Vulnerabilidades Desconocidas

El red team de Anthropic actuó como un atacante para evaluar estos riesgos. El informe destaca que los modelos actuales no solo detectan fallas, sino que también generan scripts listos para llevar a cabo ataques, planteando un escenario donde la explotación de contratos inteligentes se vuelve técnica y económicamente viable.

Los investigadores advierten sobre la posibilidad de ataques de «día cero» que exploten vulnerabilidades antes de que los desarrolladores tengan oportunidad de corregirlas.

Desafíos para el Ecosistema DeFi

Este descubrimiento representa un grave desafío para el entorno de finanzas descentralizadas (DeFi). Los contratos inteligentes son la columna vertebral de aplicaciones que gestionan miles de millones en activos digitales. La capacidad de la IA para explotar estas vulnerabilidades de manera autónoma incrementa significativamente el riesgo de ataques masivos.

Promoviendo la Prevención y la Seguridad

A pesar de las alarmas que podrían sonar, Anthropic aclara que su cometido no es causar pánico, sino más bien anticipar escenarios de riesgo y fomentar defensas más robustas. Aunque la investigación se llevó a cabo en condiciones controladas, es evidente que la delgada línea entre innovación y riesgo está cada vez más difusa.

Un Futuro de Innovación y Precaución

En paralelo, la compañía ha lanzado su modelo Claude Opus 4.5, que promete una mayor precisión en pruebas de ingeniería de software. Este avance resalta el potencial de la IA para abordar tareas complejas, pero también evidencia los peligros que pueden surgir si no se establecen límites claros en su uso.

RELATED ARTICLES
- Advertisment -

Most Popular

Recent Comments