spot_img

Advertencia sobre Potenciales Riesgos de Seguridad con Modelos de IA

Investigadores de la Universidad de Illinois Urbana-Champaign han revelado preocupantes descubrimientos sobre la capacidad de los modelos de inteligencia artificial, incluyendo el GPT-4 de OpenAI, para realizar ciberataques de forma autónoma. Daniel Kang y su equipo probaron varios modelos, demostrando que estos agentes de IA podrían hackear sitios web y acceder a información de bases de datos en línea sin la intervención humana.

Según Kang, el uso de agentes de IA reduce significativamente la experiencia necesaria para llevar a cabo ataques maliciosos, ya que los modelos, incluyendo el GPT-4, demostraron éxito en el 73% de los 15 desafíos de hackeo realizados. Esto incluyó la identificación de vulnerabilidades en sitios web reales que no formaban parte del escenario de prueba.

El informe destaca que el costo estimado de utilizar un agente de IA para tales ataques sería de alrededor de $10 por intento, en comparación con los $80 por intento al emplear a un analista de ciberseguridad altamente remunerado. Esta revelación plantea preocupaciones sobre la accesibilidad de la tecnología de inteligencia artificial para actividades maliciosas, ya que individuos o grupos sin experiencia en hacking podrían aprovechar estos modelos.


Lea también: Técnicas de seguridad no eliminan comportamientos maliciosos de la inteligencia artificial


A pesar de compartir sus hallazgos con OpenAI, la compañía no ha respondido a las solicitudes de comentarios. Este descubrimiento se presenta en contraste con informes anteriores de OpenAI y Microsoft, que afirmaban que sus modelos ofrecían capacidades limitadas para tareas maliciosas de ciberseguridad. Expertos como Jessica Newman de la Universidad de California, Berkeley, destacan la necesidad de evaluaciones independientes para comprender mejor las implicaciones del uso de inteligencia artificial en situaciones del mundo real.

Adicionalmente, se informa que OpenAI y Microsoft colaboraron para interrumpir a hackers afiliados a estados que utilizaban grandes modelos de lenguaje para obtener información sobre posibles objetivos y mejorar la eficacia de su malware. Sin embargo, este informe no aborda directamente la posibilidad de que los modelos de IA sean utilizados para entrenar agentes autónomos de hackeo. La discrepancia entre los hallazgos independientes y los informes de las compañías destaca la urgencia de una evaluación más profunda de los riesgos asociados con el uso de inteligencia artificial en el ámbito de la ciberseguridad.


La información es libre, pero investigar en profundidad, analizar datos y escribir en un lenguaje sencillo toma tiempo, apoya a nuestros editores a través de:

Become a patron at Patreon!
Ade López
Ade López
Ade escribe sobre cultura, tutoriales y todo lo relacionado con la informática. También es el editor principal de las notas de prensa. Es autodidacta, amante de los gatos y de música.
Anuncio

Otros artículos

Nuestras redes sociales

SeguidoresSeguir
SeguidoresSeguir
SuscriptoresSuscribirte
Anuncio

ultimos entradas