Hasta hace poco, en las empresas había señales que nadie cuestionaba. Si llegaba un correo del CEO pidiendo algo urgente, se respondía. Si la voz al otro lado de la llamada sonaba como la del director financiero, se autorizaba el pago. Si el mensaje venía del chat interno, se asumía que era legítimo. La confianza […]

Hasta hace poco, en las empresas había señales que nadie cuestionaba. Si llegaba un correo del CEO pidiendo algo urgente, se respondía. Si la voz al otro lado de la llamada sonaba como la del director financiero, se autorizaba el pago. Si el mensaje venía del chat interno, se asumía que era legítimo. La confianza era casi automática, parte del engranaje invisible que hacía funcionar a las organizaciones. Hoy esa lógica empieza a romperse. En 2026, con la inteligencia artificial capaz de clonar voces, rostros y estilos de escritura en segundos, esas mismas señales dejaron de ser pruebas de autenticidad y se convirtieron en posibles vectores de fraude.

Este cambio marca un punto de inflexión para la ciberseguridad empresarial porque ya no se tratará únicamente de proteger sistemas, sino de garantizar la integridad de la realidad digital en la que operan las organizaciones. En un mundo digital donde la manipulación de información puede escalar al nivel de riesgo corporativo, la capacidad de validar la veracidad de los datos se convertirá en un activo crítico para la continuidad del negocio y la confianza institucional.

Los expertos de Kaspersky anticipan que, a lo largo de este año, los deepfakes dejarán de ser una curiosidad tecnológica para convertirse en un riesgo estructural. No hablamos solo de videos falsos virales, sino de suplantación de ejecutivos, instrucciones financieras aparentemente legítimas, audios sintéticos que replican la voz de un CEO o comunicaciones internas manipuladas con precisión quirúrgica. El hecho de que una parte significativa de la población aún no identifique qué es un deepfake no es un dato anecdótico: es una vulnerabilidad sistémica que puede trasladarse directamente a la organización.

El problema no es únicamente la calidad del fraude, sino su accesibilidad pues las herramientas de generación de voz, imagen y texto son cada vez más sofisticadas, pero también más simples de usar, lo que democratiza el ataque. La inteligencia artificial reducirá las barreras técnicas para los ciberdelincuentes y automatizará tareas que antes requerían equipos especializados: reconocimiento, personalización del engaño, generación de infraestructura y adaptación en tiempo real. El resultado será un ecosistema de ataques más rápido, más escalable y mucho más difícil de rastrear.

Al mismo tiempo, no existen aún estándares universales robustos para identificar con absoluta certeza el contenido generado por IA. Esta ausencia de mecanismos globales de autenticidad obligará a las empresas a desarrollar sus propios sistemas de verificación. Procesos críticos —autorizaciones de pago, validación de proveedores, comunicaciones de alto nivel— deberán incorporar controles adicionales. No será suficiente con confiar en la voz, la firma digital o la apariencia de legitimidad. La validación sistemática se convertirá en parte del flujo operativo.

Este escenario redefine el papel de la inteligencia artificial dentro de la empresa. La IA no solo será una herramienta defensiva para detectar anomalías; también será un motor transversal en toda la cadena del ciberataque. La misma tecnología que permite optimizar procesos internos puede ser utilizada para escalar fraudes personalizados, automatizar campañas de ingeniería social y evadir defensas con mayor precisión. La frontera entre innovación y exposición será cada vez más delgada.

Frente a este contexto, la regulación jugará un rol relevante, pero insuficiente. Las organizaciones que esperen a que el marco normativo dicte cada paso llegarán tarde, en realidad, la verdadera transformación deberá ocurrir puertas adentro: integrar principios de security by design y privacy by design desde el diseño mismo de los sistemas, formalizar políticas claras de gobernanza de IA y alinear el uso de estas tecnologías con la matriz de riesgo corporativa. No todo proceso debe automatizarse. No todo dato debe exponerse a modelos generativos. Y no toda eficiencia compensa el riesgo estratégico que puede introducir.

En 2026, la ciberseguridad dejará de medirse únicamente en términos de firewalls, endpoints o centros de operaciones, se medirá en términos de confianza verificable. Las empresas más competitivas no serán necesariamente las que adopten más rápido la inteligencia artificial, sino aquellas que logren integrarla sin perder el control sobre su información, sus decisiones y su narrativa.

La pregunta que deberán hacerse los líderes no es si usarán IA —porque la respuesta ya es sí—, sino bajo qué reglas, con qué límites y con qué mecanismos de verificación. En un entorno donde la autenticidad ya no puede asumirse por defecto, la resiliencia digital se convertirá en una capacidad de liderazgo.

Y en esa nueva realidad, la ventaja competitiva no estará solo en detectar amenazas, sino en diseñar organizaciones capaces de operar con certeza en medio de la ambigüedad digital.

La uutora es gerente general para la región Norte de América Latina en Kaspersky.

Las opiniones expresadas en este artículo son responsabilidad de su autor y no tienen que ver con la opinión de Forbes República Dominicana.