El día 22 de enero de 2020, la revista Alcaldes de México publicó mi artículo Inteligencia artificial, ¿un arma de dos filos?, el cual se publicó también en la revistas Xtrem Secure y Osao Les comparto la publicación abajo y los invito a enviarme sus comentarios.
Ilustración diseñada por xb100 / Freepik
El uso de la inteligencia artificial (AI) ha acelerado el desarrollo de diversas disciplinas, entre las tres principales están los esfuerzos en ciberseguridad para descubrir y detener la ciberdelincuencia; las campañas creadas para desinformar (también llamadas fake news) y los ataques mediante el uso de robot y de drones.
En el caso de la ciberseguridad, los avances dependían hasta hace poco tiempo de la capacidad de aprendizaje y ejecución, tanto de los profesionales dedicados a proteger empresas y organizaciones, como de los cibercriminales dedicados a inventar nuevas formas de penetrar las defensas, sin embargo, el uso de la inteligencia artificial (AI) ha cambiado este procedimiento y acelerado la batalla por la seguridad informática.
El desarrollo acelerado de la inteligencia artificial transformó el panorama porque quienes se dedican a salvaguardar la seguridad de organizaciones y empresas ahora también se dedican a entrenar su software para que aprenda automáticamente a partir de sucesos pasados para predecir nuevas amenazas en ciberseguridad.
Sin embargo, los cibercriminales tienen la misma oportunidad: utilizan la inteligencia artificial para refinar y potenciar su capacidad hasta niveles nunca antes vistos: la cual sumada a la posibilidad de utilizar computadoras zombis para realizar ataques eleva drásticamente el nivel de riesgo.
Ataques con IA: un francotirador digital
De acuerdo con un informe de la empresa Webroot una compañía estadounidense que proporciona seguridad en Internet para consumidores y empresas, la inteligencia artificial es utilizada por alrededor del 87 por ciento de los especialistas en ciberseguridad en Estados Unidos.
Si miramos hacia el lado de los cibercriminales no podemos calcular cuántos ya usan la inteligencia artificial para realizar sus delitos, justamente porque sus acciones las realizan clandestinamente y no son medibles.
Lo que sí puede apreciarse son tendencias a realizar ataques parecidos a la actividad de un francotirador, como en la película Enemigo al acecho, en la que un francotirador ruso elimina oficiales nazis seleccionados y, mientras espera la oportunidad de tener a su objetivo en la mira, se oculta, al igual que algunos códigos maliciosos actuales.
Investigadores de la empresa IBM crearon el proyecto experimental DeepLocker que permite mostrar como el malware puede utilizar la inteligencia artificial usada ya en teléfonos capaces de reconocer al usuario para activarse y atacar específicamente a una persona, a diferencia de la técnica “rociar y rezar”, como la llama Marc Stoecklin, un científico de seguridad cibernética de IBM Research, la cual consistía en infectar una gran cantidad de dispositivos y esperar que su objetivo estuviera entre ellos.
Sin embargo, la técnica “rociar y rezar” tiene la desventaja, para los delincuentes, de que ese malware puede descubrirse y, a continuación, pararse rápidamente antes de que dé en el blanco deseado.
Para todo bien, Inteligencia artificial, para todo mal, también
La inteligencia artificial es útil para recopilar automáticamente datos sobre alguna compañía u organización al investigar en redes sociales, foros de ayuda y depósitos de código, así se ahorra tiempo y dinero
Por otro lado, los ciberdelincuentes pueden utilizar la inteligencia artificial para “quebrar” contraseñas al reducir las probables combinaciones de letras, números y caracteres especiales a partir de datos como la demografía y la región geográfica, entre otros factores.
El uso de la inteligencia artificial para cometer delitos es también motivo de preocupación de la Organización de las Naciones Unidas mediante UNICRI, un Instituto Interregional dedicado a la Investigación del Crimen y la Justicia, el cual ya cuenta con un Centro de Inteligencia Artificial.
Ese Centro, dirigido por Irakli Beridze, “tiene como objetivo estudiar cómo los criminales pueden utilizar esta tecnología, cómo podría emplearse para la prevención del crimen y en cómo pueden usarla las fuerzas de seguridad”, afirma el funcionario en una entrevista con El País.
De acuerdo con Beridze, los delincuentes pueden usar la inteligencia artificial de diversas formas: en primer lugar, para cometer delitos digitales, en los cuales los cibercriminales emplean la IA.
En segundo lugar, la inteligencia artificial puede ser usada en campañas de desinformación también llamadas fake news, por ejemplo, mediante videos alterados en los que alguna figura política declare algo que nunca dijo. Esa práctica será algo que cualquier persona con conocimientos medianos de tecnología podrá hacer en unos cuantos años.
Finalmente, en tercer lugar, está la realización de ataques físicos mediante la utilización de dispositivos autónomos como drones y robots. De hecho, Elon Musk, el fundador de la compañía Tesla, junto con 115 especialistas en robots e inteligencia artificial firmaron y enviaron una carta abierta a las Naciones Unidas con el propósito de alertar sobre los peligros de las armas autónomas para prohibir su uso internacional.
Esa carta fue hecha pública en la International Joint Conference on Artificial Intelligence (IJCAI 2017), realizada en la ciudad de Melbourne, Australia, en agosto de 2017
Una vez que los criminales empiecen a usar la IA, si no entendemos su tecnología y no la usamos, ellos tendrían las de ganar. Ahora mismo, nadie las tiene. Todavía no hemos visto un uso muy serio de la inteligencia artificial para objetivos criminales.
¿La inteligencia artificial es un arma?
Por su lado, Irakli Beridze considera que la inteligencia artificial no es un arma, que es una herramienta, y dice que “puedes compararla con la química. La química puede usarse para cosas buenas o malas».
Beridze dice que, así como hay una convención internacional que prohíbe la producción y proliferación de las armas existentes y el desarrollo de nuevos productos, la humanidad todavía no ha creado algún tratado para regular la inteligencia artificial, lo cual tendríamos que hacer.
Por su parte, Edward Snowden, quien dio a conocer la vigilancia que el gobierno de Estados Unidos ejerce sobre sus ciudadanos y sobre todo el mundo, dice en su libro Vigilancia permanente:
«No obstante, el mayor peligro está aún por llegar, con la sofisticación del potencial de la inteligencia artificial, como el reconocimiento facial y el de patrones. Una cámara de vigilancia equipada con IA no sería un mero dispositivo de grabación, sino que podría convertirse en algo más similar a un agente de policía automatizado: un auténtico robocop destinado a buscar en serio actividades «sospechosas», como aparentes movimientos de tráfico de drogas (es decir, gente abrazándose o dándose la mano) y aparentes indicios de pertenencia a una banda (por ejemplo, gente vestida con colores concretos y marcas de ropa específicas). Ya en 2011, me quedó claro que a eso nos estaba llevando la tecnología, sin que hubiese ningún debate público sustancial al respecto.»
La importancia que ha cobrado la inteligencia artificial es tal que ya se habla de una reconfiguración de las políticas de seguridad nacional debido al uso que algunos cibercriminales pueden hacer de esta tecnología.
Esta es una de las conclusiones de una reunión realizada en diciembre de 2018 en Shangai, China, para revisar el lugar de la inteligencia artificial (IA) en la remodelación de la seguridad nacional.
Dicha reunión fue organizada por los Institutos de Shanghái para Estudios Internacionales (SIIS) y el Instituto Interregional de Investigación de Crimen y Justicia de las Naciones Unidas (UNICRI), mediante su Centro de Inteligencia Artificial y Robótica.
Una de las conclusiones de esa reunión es que diversas agencias, incluidas las fuerzas del orden y las fuerzas de defensa, en todo el mundo ya investigan las aplicaciones de inteligencia artificial y se preocupan acerca del potencial del uso malicioso de la inteligencia artificial por parte de delincuentes y grupos terroristas para realizar ataques digitales o físicos contra civiles, políticos. sistemas y entidades gubernamentales.
Tendencias en el uso de la inteligencia artificial en la ciberseguridad
Finalmente, es importante destacar que los siguientes son algunos de los puntos que ya son una tendencia en el uso de la inteligencia artificial para enfrentar amenazas informáticas:
- La creación de sistemas para predecir y prevenir ataques informáticos mediante sistemas de inteligencia artificial dedicados a la ciberseguridad los cuales utilizarán tecnología big data para revisar y validar millones de datos en muy poco tiempo.
- El uso de machine learning aplicado a la seguridad digital para que los programas aprendan a detectar si el desempeño de una computadora es el que se espera o si se detecta alguna infección por malware.
- Utilizar la Inteligencia Artificial para hacer menos inseguros a los dispositivos de Internet de las Cosas (IOPT) y detener la difusión de malware y, por consiguiente, ataques en las redes donde se encuentran esos objetos.
- El diseño de sistemas de Inteligencia Artificial destinados a la ciberseguridad que sirvan para automatizar los procesos y protocolos de seguridad de cualquier organización o compañía para realizar auditorías de seguridad en poco tiempo.
- Generar sistemas de inteligencia artificial para la seguridad informática que puedan analizar millones de publicaciones en redes sociales para encontrar contenido falso.
- Hacer posible el aprendizaje automático que permita crear sistemas de seguridad digital adaptables a cualquier dispositivos o herramienta para identificar y adaptarse a los cambios del «malware inteligente».
- Fabricar plataformas de inteligencia artificial con las cuales pueda crearse un “blindaje” para las operaciones bancarias y que también protejan las empresas fintech que utilizan blockchain para operar.
- Elaborar sistemas de inteligencia artificial para protección de muy alto nivel de las operaciones de bancos y particulares.
- Proteger las iniciativas fintech relacionadas con blockchain y en general a las nuevas plataformas de servicios bancarios en línea.