Un buen estudiante, tranquilo y algo introvertido, que fue monaguillo y empleado en un supermercado antes de alcanzar la fama. Esos son algunos retazos...

Quiero compartir algo personal y profundamente preocupante: he sido objeto de un deepfake. Durante las últimas semanas, mi identidad biométrica ha sido utilizada en múltiples videos difundidos en redes sociales. En ellos, aparezco promocionando falsas ofertas de inversión, accesibles para cualquiera y con promesas de ganancias rápidas. Nada de esto es cierto.
Este hecho me ha hecho reflexionar sobre la necesidad de llevar este tema a nuestras conversaciones cotidianas. Porque si bien hoy ha sido mi identidad la vulnerada, mañana puede ser la tuya. Nadie está exento.
Como presidente, uno de mis roles es ser vocera. Mi imagen aparece en medios impresos, redes sociales, entrevistas radiales, videos institucionales, tanto en Panamá como en otros países de América Latina. Todo esto, parte de una estrategia de compartir lo que estamos haciendo como organización, ya que múltiples estudios confirman que la credibilidad y visibilidad de los CEO son fundamentales para el posicionamiento reputacional y la construcción de la confianza en una compañía.
Pero jamás imaginé que ese mismo nivel de exposición sería utilizado como una herramienta perfecta para la ingeniería social. Técnicas como el video profiling y la suplantación digital han convertido mi visibilidad y credibilidad en un arma para el engaño.
Ahora lo sé por experiencia propia: el “video profiling” consiste en analizar videos de una persona para comprender cómo habla, se mueve y se expresa. Buscan señales de confianza, como un tono de voz calmado, gestos relajados o frases que transmitan profesionalismo. También estudian el entorno: la ropa, el fondo, la iluminación. Todo esto con el fin de crear una imitación creíble.
Con esta información, los estafadores recortan, editan y manipulan los videos. A veces, simplemente sacan frases de contexto; otras veces, utilizan herramientas de inteligencia artificial para recrear la voz y el rostro. Así, construyen fraudes más convincentes y difíciles de detectar.
La inteligencia artificial avanza a una velocidad vertiginosa. Está transformando industrias, redefiniendo nuestras formas de comunicarnos, aprender, trabajar y relacionarnos. Sin embargo, el crecimiento de esta tecnología también plantea riesgos reales para nuestra privacidad, seguridad e identidad.
Por eso, es fundamental que existan leyes que garanticen un uso ético, seguro y coherente de estas herramientas. En Panamá, el artículo 577 del Código de la Familia establece que “toda persona tiene derecho exclusivo sobre su propia imagen, y que esta imagen no puede ser reproducida públicamente sin el consentimiento del titular, incluso si fue captada en un lugar público”. Este es un punto de partida importante, pero no suficiente.
Considero que en nuestro país es necesario abrir más espacios de conversación multisectorial e interdisciplinaria sobre el uso y normatividad de la inteligencia artificial. Países como Dinamarca ya lo están haciendo. Su Ministro de Cultura, Jakob Engel-Schmidt, ha propuesto regular el uso de la imagen personal en la legislación sobre derechos de autor. Es una propuesta que ha tenido gran acogida parlamentaria, que se espera siente un precedente valioso dentro de la Unión Europea —y por qué no, también en nuestra región— para proteger la identidad biométrica frente a los abusos tecnológicos.
En un mundo tan acelerado y cambiante, este debe ser un tema prioritario. En Banistmo, creemos en el poder de la colaboración para construir un futuro más sostenible, ético y humano.
Pero mientras se abren espacios de conversación, mis equipos de ciberseguridad tienen una tarea más en su día a día. Ya han realizado más de 30 ejercicios para desmontar estos videos de las plataformas, que a menudo se toman “su tiempo” para procesar las denuncias. Y cuando por fin logramos bajar uno... ya ha surgido otra versión.
He recibido mensajes por WhatsApp: algunos, con buena intención, me advierten de los vídeos, otros, crédulos, cuestionan “mi participación” en estos anuncios. El daño es reputacional y social.
Por eso, invito a mantenernos alertas, informados y comprometidos con el buen uso de la inteligencia artificial y las nuevas tecnologías.
Creemos espacios, fomentemos el diálogo, elevemos nuestras voces. Solo así podremos aprovechar el potencial inmenso de la IA, cuidando siempre el bienestar de las personas y el respeto por nuestros valores fundamentales.
Desde que hemos alertado a nuestras audiencias, algunos conocidos me han dicho con picardía: “Bienvenida al club.” Y aunque intento tomármelo con humor, confieso que todavía estoy tratando de cancelar mi suscripción a ese “club”.
La tecnología no va a detenerse. Y los defraudadores tampoco. Siempre habrá alguien que quiera ganar dinero fácil y rápido. Por eso nuestra responsabilidad ética no puede ir detrás de la innovación: debe caminar a su lado.