La Inteligencia artificial es una tecnología que está creciendo a pasos agigantados. Y cada vez resulta más asequible su uso por las empresas.

Por eso, ahora la preocupación es evitar que esa tecnología se utilice con fines malintencionados.

Podemos ver esos riesgos con un ejemplo real.

La empresa Skydio fabricó un dron de rastreo usando piezas tecnológicas a las que cualquiera puede acceder, como cámaras, programas de código abierto o procesadores baratos. El coste total fue inferior a 2.500 euros.

Evitar un uso delictivo de la Inteligencia artificial

La Inteligencia artificial se utiliza para dar autonomía a automóviles, fabricar robots que realicen todo tipo de tareas, en cámaras de seguridad u otros muchos usos en Internet.

Incluso, al no comprender correctamente su nivel de aprendizaje, a veces esta tecnología muestra comportamientos extraños.

Por ese motivo pueden existir riesgos sobre la manipulación de esta tecnología utilizando métodos para engañar a los algoritmos y hacer que vean cosas que no existen. Y los atacantes pueden eludir cámaras de seguridad o actuar sobre vehículos autónomos.

La Inteligencia artificial, además de ayudarnos a descubrir actividades malintencionadas, es utilizada por delincuentes para cometer esos delitos.

Existe malware que usa la Inteligencia artificial para reconocer fotografías o voces y, uniéndolo con una geolocalización, permite identificar a famosos o directivos de grandes empresas para infectar sus ordenadores.

Existen también técnicas que atacan a la Inteligencia artificial a través de una corrupción de los datos que usa esta tecnología para aprender. Y otra técnica de «evasión» que consiste en ocultar contenidos spam para no ser localizados o imitar comportamientos normales para que los algoritmos no los detecten y creen alarmas.

Para evitarlo es importante realizar un entrenamiento de la Inteligencia artificial. Y efectuar revisiones periódicas del aprendizaje para corregir posibles errores.

¿Será más fácil realizar ataques de phising o ciberestafa usando esta tecnología?

Los ciberataques basados en phising, estafas o extorsiones son cada vez más frecuentes, incluso sin usar la Inteligencia artificial. Pero usando esa tecnología, el software malicioso puede extenderse silenciosamente e impedir su detección.

Es necesario crear nuevas alertas para anticiparse a los delincuentes y proteger a personas, dispositivos y datos.

Todas las empresas y organizaciones deben tener la seguridad como prioritaria. Y es necesario actualizar constantemente las medidas de ciberseguridad para evitar que se queden obsoletas.

Inteligencia artificial para crear contenidos de vídeo y audio

Los sistemas basados en Inteligencia artificial actualmente son capaces de crear contenido de vídeo y audio por su cuenta que parezca real.

Hay sistemas biométricos de autenticación que pueden ser engañados con voz o imagen generadas por ordenador. En este caso, es recomendable usar sistemas de autenticación basados en varios factores. De esta forma se incrementa la seguridad ya que se ponen más obstáculos al delincuente.

¿Qué medidas deben adoptar las empresas para impedir esos usos malintencionados?

Las principales medidas que las empresas pueden aplicar para evitar que la Inteligencia artificial se utilice con fines delictivos son:

  • Incorporar sistemas de atenticación que usen múltiples factores
  • Usar herramientas de inteligencia en seguridad que realicen análisis del comportamiento humano o de la red y la Inteligencia artificial para descubrir ataques.
  • Disponer de una política de protección de datos con herramientas que impidan abusos

¿Qué principios deben tener en cuenta las empresas al usar o desarrollar la Inteligencia artificial?

Hoy en día, en una economía totalmente digital, los datos son un importante valor para las empresas. Por eso, al recoger datos con la finalidad de mejorar la experiencia de los clientes, las empresas deben garantizar la protección de esos datos.

Para ello debe existir transparencia en la manera en que se usan esos datos. Y se debe eliminar o anonimizar esa información una vez que haya cumplido el objetivo para el que se recogió.

Todas las empresas deben reducir al máximo los riesgos que puedan existir en caso de producirse un incidente de seguridad que afecte a la información personal que manejan.

Si usamos sistemas basados en Inteligencia artificial es muy importante verificar que la fuente de datos para el aprendizaje no tenga brechas. Ni pueda ser influible por personas con malas intenciones.

Existe un debate social sobre la ética de la Inteligencia artificial que solo la sociedad podrá regular. Habrá que exigir a las empresas el respeto a la privacidad de las personas e imponer importantes sanciones a aquellas que no protegen adecuadamente sus datos.

Ejemplo de uso de la IA de manera fraudulenta

A finales de agosto conocimos un caso en el que ciberdelincuentes habían usado un software basado en Inteligencia artificial con el que se imitaba la voz del CEO de una empresa energética de Alemania. Con ello realizaron un robo de 220.000 euros.

Con esta tecnología los estafadores suplantaron la identidad del director ejecutivo de la multinacional alemana y engañaron al CEO de una de sus filiales del Reino Unido. Este pensó que hablaba con su jefe por teléfono. El supuesto jefe alemán solicitó al británico la realización de un pago inmediato a un proveedor situado en Hungría.

Los ciberdelincuentes contactaron de nuevo con la víctima haciéndose pasar por el CEO alemán para confirmarle el reembolso de esa transferencia. Y volvieron a contactar por tercera vez para que efectuara una nueva transferencia urgente. En este caso, el jefe de la sede británica empezó a sospechar y la transferencia no se realizó.

Esto nos da idea de que en un futuro próximo aumentarán los ciberdelitos que utilicen esta tecnología de aprendizaje automático. Esto cada vez será más sencillo ya que para crear voces falsas se necesitan algunas grabaciones y, al aumentar la capacidad de procesamiento de los equipos, esas piezas se crearán fácilmente.

Con el tiempo los ciberdelincuentes utilizarán la Inteligencia artificial para conseguir sus objetivos de robar dinero o bienes de valor. Sobre todo aquellos grupos criminales financiados por algún Estado.

Concienciación de las empresas

Compañías como Microsoft o Facebook se han dado cuenta de esta nueva tendencia y han indicado su preocupación. Estas empresas, junto con Universidades de Estados Unidos, han creado una iniciativa para neutralizar el creciente fenómeno de las deepfakes (vídeos falsos). La técnica se llama “Deepfake Detection Challenge (DFDC)” y premiará a los que creen una tecnología que cualquiera pueda usar con capacidad para detectar el uso de IA para crear vídeos falsos.

Casos como el ocurrido a esta empresa alemana nos sirven para concienciarnos y prepararnos mejor para esta nueva tendencia que será una evolución de las técnicas de ingeniería social.

Las medidas que podemos tener en cuenta para evitar ser víctimas de una estafa en la que se imite la voz de una persona de confianza son:

  • Ser conscientes de que un tercero pueda suplantar la identidad de una persona imitando su voz.
  • Aplicar ciertas medidas de verificación antes de efectuar una transferencia de dinero. Por ejemplo, comprobar que el número que llama pertenece a la persona que dice ser e indicarle que nosotros le devolveremos la llamada.

El futuro ya está aquí y la IA va a ser algo común en nuestras vidas. Por eso debemos ser conscientes de que, aparte de los beneficios que nos producirá, también conlleva unos riesgos.

Escribe aquí tu comentario

Deja un comentario

Las siguientes reglas del RGPD deben leerse y aceptarse:
Este formulario recopila tu nombre, correo electrónico y contenido para que podamos realizar un seguimiento de los comentarios dejados en la web. Para más información revisa nuestra política de privacidad, donde encontrarás más información sobre dónde, cómo y por qué almacenamos tus datos.