Loading...

Inteligencia Artificial: riesgos de ciberseguridad para una organización

La Inteligencia Artificial (IA) ha cobrado gran auge en años recientes, especialmente con la llegada de aplicaciones como ChatGPT y Gemini, ambas fácilmente accesibles; lo cual ha agilizado su implementación en múltiples ámbitos laborales, por facilitar tareas y automatizar procesos.

El uso de esta tecnología no solo conlleva beneficios, también existen riesgos en la seguridad de información, tanto personal, como organizacional. «La tecnología nos brinda una ventana al mundo, pero también puede abrir puertas a la vulnerabilidad de nuestra información personal y organizacional», comentó José Amado, gerente de la Práctica de Identidades Digitales de SISAP

¿Le ofrece la Inteligencia Artificial privacidad con sus datos?

Amado comparte que uno de los mayores riesgos al utilizar aplicaciones de Inteligencia Artificial, es la incertidumbre respecto al manejo de datos privados por la misma. “ChatGPT, por ejemplo, es un programa que necesita de gran cantidad de información para entrenarse, la cual nosotros le proporcionamos cada vez que lo utilizamos, datos que son almacenados en una nube fuera de nuestro alcance”, explicó.

El experto brindó un ejemplo sobre el riesgo que esto representa para una organización: “Pensemos que un colaborador en la oficina debe realizar un resumen de un reporte ejecutivo, y para ahorrarse trabajo, copia este en ChatGPT y le pide que lo haga por él”. Esto le daría acceso completo al reporte, información de la empresa, entre otros datos, que ahora están almacenados en la nube y que no sabemos quién puede tener acceso.

Estas preocupaciones de privacidad deben de estar presentes en la organización al momento de considerar la implementación de Inteligencia Artificial. Una vez se comparten los datos con estas aplicaciones, no pueden eliminarse o regresarse, por lo que resulta importante capacitar a los colaboradores sobre estas tecnologías y sus usos, así evitar que compartan información sensible o confidencial con ellas.

El lado oscuro de las aplicaciones de Inteligencia Artificial

Mientras que ChatGPT y Gemini buscan apoyar y facilitar las tareas diarias de las personas, existen aplicaciones similares con fines maliciosos, las cuales buscan ayudar a los cibercriminales a mejorar sus métodos de ataque y pasar desapercibidos.

“Algunos ejemplos de GPTs maliciosos son WormGPT, FraudGPT y PoisonGPT, los cuales pueden realizar tareas desde escribir correos creíbles de phishing, hasta escribir el código de un programa maligno para extraer información”, alertó Amado.

El experto recalca la importancia de conocer acerca de este tipo de aplicaciones, ya que con su ayuda el riesgo de que las organizaciones puedan sufrir ataques cibernéticos y ser víctimas de Ransomware, aumentan.

Si en su organización se hace el uso de Inteligencia Artificial para la programación de aplicaciones o web sites, o bien, los colaboradores hacen uso de aplicaciones como ChatGPT, Amado recomienda que se acerquen a una empresa de soluciones en ciberseguridad, como lo es SISAP, quienes puedan realizar un análisis de sus vulnerabilidades y aumentar sus defensas contra ciberataques. SISAP/hondudiario

 

 

Comentarios