| Secciones
| Clasificados
Tres Arroyos, SÁBADO 13.04.2024
// 15.1 °C
DÓLAR HOY: $855 | $913
DÓLAR BLUE: $975 | $1005

Herramientas de IA como ChatGPT, usadas cada vez más por ciberdelincuentes para el phishing

Vistas de esta entrada: 1

El extraordinario potencial tecnológico de ChatGPT es tan espectacular como disruptivo, y está demostrando ser la punta de lanza de una auténtica revolución informática que puede tener consecuencias bastante más negativas que positivas. En este sentido, el asombro inicial generado por ChatGPT está dando paso a un panorama más bien desolador. 

 Uno de los principales problemas de esta nueva tecnología pasa por el reemplazo potencial de millones de puestos de trabajo cualificados en todo el mundo. Son incontables los rubros profesionales que pueden verse afectados por ChatGPT, y esta revolución tecnológica no hizo más que empezar. Si no se ve regulada, la IA tiene el potencial de eliminar una cantidad de puestos de trabajo casi inimaginable en los próximos años. 
 Las consecuencias de esta pérdida masiva de empleos ya empiezan a dejarse sentir en algunos sectores, pero son otros ámbitos donde ChatGPT está despertando más preocupaciones. Uno de ellos es la ciberseguridad, donde los ciberatacantes están aprovechando la capacidad lingüística sin precedentes de ChatGPT para perfeccionar sus ataques de phishing. 
 ChatGPT está disparando los ataques de phishing a nivel global 
Para ubicarnos, los ataques de phishing son estafas digitales donde los hackers se hacen pasar por instituciones o personas de apariencia legítima, con el propósito de robar los datos de sus víctimas. Estos datos pueden ser contraseñas, tarjetas de crédito o incluso fotografías íntimas, y los ataques de phishing pueden ir desde el duplicado de una página web hasta el envío masivo de correos electrónicos falsos
 Hasta hace relativamente poco, la pobre redacción de los correos electrónicos de phishing facilitaba su detección. Errores en la gramática o enunciados repetitivos permitían a usuarios y proveedores de correo identificar estos e-mails maliciosos y bloquearlos antes de que pudieran causar más daños. Pero ahora, con ChatGPT, la historia es otra. 
 La capacidad de ChatGPT para redactar contenidos gramaticalmente perfectos, sumada a su enorme potencia computacional, permite a los hackers redactar miles de correos falsos diferentes en pocos minutos, todos ellos con una gramática exquisita, y, peor aún, con un enunciado atractivo y convincente. Estos correos están pasando casi todos los controles, y, además, son mucho más eficaces en su propósito malicioso: la estafa digital. 
 Hay que andar con más cuidado que nunca por la red 
 El uso de herramientas de ciberseguridad anti-malware o la navegación con una VPN gratuita pueden añadir una cierta capa de protección frente a los ataques de phishing, sobre todo porque estas herramientas son capaces de alertarnos antes de visitar una web maliciosa o descargar un archivo potencialmente peligroso. Sin embargo, el hecho de que los hackers hagan uso de una IA como ChatGPT complica bastante más las cosas. 
 Para protegernos en la red tenemos que aprender a analizar de manera crítica los correos más dudosos, y debemos asegurarnos dos veces antes de introducir nuestros datos de registro en cualquier web. La redacción de los correos de phishing ya no basta para hacer saltar las alarmas, así que debemos cuestionarnos muy bien el propósito de cada correo.
Pese a que su redacción es más sofisticada, el mensaje de fondo de los correos de phishing suele mantenerse intacto. Por ejemplo, suelen invitarlos a introducir datos de pago o de acceso con urgencia, tratan de causarnos una sensación de angustia, e insisten en un llamado a la acción que puede desarticularse fácilmente si contrastamos lo que dice el correo con la información que podríamos obtener en webs verificables o teléfonos de asistencia legítimos. 
 La regulación de la IA no está yendo por buen camino 
El auge de la IA está disparando la preocupación de los gobiernos, sobre todo por su potencial disruptivo en torno a sus sistemas electorales. La desinformación masiva generada mediante IA como ChatGPT puede tener un impacto devastador en todo tipo de elecciones, comenzando por la nuestra. Y esto es aún más preocupante ante la multiplicación de perfiles falsos en plataformas como Twitter –ahora X–, con procesos de verificación defectuosos
 Son muchos los actores maliciosos que pretenden influir en las elecciones de múltiples países, desde los propios partidos involucrados hasta agentes externos con múltiples intereses geopolíticos. El riesgo es el mismo para gobiernos de cualquier color, pero, a pesar de todo, estamos todavía muy lejos de implementar una legislación adecuada en torno a la IA. 
 No nos referimos simplemente a la Argentina. Ningún país del mundo está demostrando avances sólidos en este ámbito, y las pocas iniciativas que se están viendo hasta ahora –tibias y escasas– se limitan a cuestiones de GDPR. A pesar de su enorme potencial destructivo, ningún país quiere renunciar al impresionante potencial de la IA, y lastrar su desarrollo con regulaciones no parece ser una opción. “Si no lo hago yo, lo va a hacer otro”, parece ser la premisa. Pero ¿no fue eso mismo lo que se dijo Oppenheimer? 
COMENTARIOS

NOTICIAS MÁS LEÍDAS

OPINIÓN

COMENTARIOS
TE PUEDE INTERESAR