Ciencia y tecnología

No hay que temer que la IA se revuelva contra los humanos. Hay que temer a los BadGPT, la IA para hackers – Mr. Codigo

Los chatbots maliciosos se convierten en una amenaza en la red

En la era digital en la que vivimos, la inteligencia artificial se ha convertido en una herramienta que nos facilita la vida en muchos aspectos. Sin embargo, también puede ser utilizada de manera maliciosa por personas con malas intenciones. ChatGPT, Copilot y Gemini son algunos ejemplos de chatbots diseñados para ayudarnos, pero lamentablemente han comenzado a surgir versiones maliciosas como BadGPT y FraudGPT.

Estos chatbots maliciosos están siendo utilizados por hackers para llevar a cabo actividades fraudulentas y delictivas. Utilizan técnicas como el spear-phishing para suplantar la identidad de personas o entidades y engañar a las víctimas. Más de 200 chatbots maliciosos han sido descubiertos en la dark web, muchos de ellos basados en modelos de IA como Llama 2 o versiones modificadas de OpenAI y Anthropic.

Modelos de IA disponibles en la web sin mecanismos de censura son utilizados por hackers para fines delictivos. Mixtral, una versión modificada de un modelo de IA, está siendo utilizada para generar correos de phishing de forma más efectiva. Las herramientas vendidas en la dark web pueden representar una amenaza mayor, ya que pueden haber sido entrenadas con datos de filtraciones y robos de datos.

Ante esta situación, grandes empresas como Microsoft y OpenAI están alerta ante el uso malicioso de chatbots por parte de cibercriminales. Sin embargo, expertos como Sundar Pichai de Google señalan que la inteligencia artificial también puede ayudar a combatir estas amenazas. Es importante que se tomen medidas para prevenir el uso indebido de la tecnología y proteger a los usuarios de la red.

Melchor Ordaz

"Adicto a la cerveza incurable. Webaholic. Geek de la comida. Introvertido general. Jugador de toda la vida. Estudiante".

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba