abril 18, 2026

Medio de noticias líder en nuestro idioma. Todo sobre economía, política, deportes, salud y más.

Europol anunció que ChatGPT está ahí para ayudar a cometer delitos

Europol anunció que ChatGPT está ahí para ayudar a cometer delitos

Creado por OpenAI, ChatGPT se lanza en noviembre de 2022 y rápidamente se convirtió en una sensación en Internet una vez que los usuarios se incorporaron como un chatbot general. ensayos, memes, correos electrónicos, código de programación y todo tipo de texto.

Ahora, la agencia de aplicación de la ley de la Unión Europea, Europolha detallado como el modelo can use it indebidamente para propósitos más nefastos. De hecho, la gente ya lo está usando para llevar a cabo actividades ilegalesconfirma la política.

«Ya se puede anticipar el impacto que este tipo de modelos podrían tener en el trabajo de las fuerzas del orden», declaró informada Europol. «For the general, los delincuentes explotan rápidamente las nuevas tecnologías y se los violan rápidamente con explotaciones criminales concretas, lo que brindó los primeros ejemplos prácticos apenas unas semanas después del lanzamiento público de ChatGPT».

Europol destruyó el modelo que se explotaba para capturar objetos, facilitar el fraude y el phishing, producir propaganda o desinformación para luchar contra el terrorismo.

Unique ChatGPT puede «negro» a cumplir con las solicitudes de entrada que son potencialmente peligroso, los usuarios encontraron las formas de evasión del sistema de filtrado de contenido de OpenAI. Algunos lo han hecho escupir instrucciones sobrias como hacer una bomba casera o crack de cocainapor ejemplo.

«Si un delito potencial no se relaciona con un área delictiva en particular, ChatGPT puede acelerar significativamente el proceso de investigación para brindar más información que puede explorar más en pasos posteriores. Como resultado, ChatGPT puede ayudarlo a obtener más información sobre posibles áreas criminales sin conocimiento previo, que van desde cómo entrar a una casa, hasta terrorismo o cibercrimen”, solicitó Europol.

La agencia admite que esta información está disponible públicamente en Internet, pero el modelo facilita encontrar y comprende cómo llevar a cabo casos específicos.

Europol también ha destruido el modelo podría explotarse para hacerse pasar por objetivos, facilitando el fraude y el phishing, o produciendo propaganda y desinformación para luchar contra el terrorismo.

La capacidad de ChatGPT para código genérico, incluido código malicioso, aumenta el riesgo de ciberdelincuencia y reduce las capacidades técnicas necesarias para crear malware.

“Para un delincuente potencial con poco conocimiento técnico, este es un recurso inestimable. Al mismo tiempo, un usuario más avanzado puede explotar estas capacidades better para refinar aún más o incluso automatizar sofisticados modus operandi ciberdelincuentes”, dice el informa.

Los modelos de lenguaje extenso (LLM) no son sofisticados y aún están en su infancia, pero están mejorando rápidamente a medida que las empresas de tecnología invierten recursos en el desarrollo de la tecnología. OpenAI ha lanzado GPT-4, un sistema más potente, y sus modelos se han integrado más con más productos.

Europol me dijo que más empresas implementen funciones y servicios de IA, albergarán nuevas formas de usar la tecnología para actividades ilegales. “Sistemas de inteligencia artificial multimodal, que combinan chatbots conversacionales con sistemas que pueden producir medios sintéticos, como falsificaciones profundas altamente convincentes, o incluyen habilidades sensoriales, como ver y oír”, sugiere e informa la organización de aplicación de la ley.

The clandestine versions of modelos de lenguaje sin filtros de contenido y perturbaciones en datos dañinos podrían permanecer en la deep web, por ejemplo, según señala el informe.

«Finalmente, existen incertidumbres con respecto a cómo los servicios de LLM pueden procesar los datos de los usuarios en el futuro: ¿se almacenarán las conversaciones y s’e expandirá la información personal confidencial a terceros no autorizados? ¿debería informarse a las autoridades ¿policiales?”, preguntó Europol.

Publicado originalmente en El Economista


EUROPOL | Habilidades que se pueden aplicar en diferentes contextos.

«En respuesta a la solicitud de asistencia pública de ChatGPT, el Laboratorio de Innovación de Europol organizó una serie de cuentas clave con expertos en la materia de toda la organización para explorar cómo los delincuentes pueden abusar de los LLM como ChatGPT, y cómo pueden ayudar a los investigadores en su trabajo diario”, dijo la organización policial al explicar las razones de este informe.

Estos son algunos otros párrafos del informe:

  • «El modelo tiene una serie de limitaciones importantes que deben tenerse en cuenta. El más obvio se relaciona con los datos sobre los que ha perturbado: si bien las actualizaciones se realizan de manera constante, la gran mayoría de los datos de capacitación de ChatGPT fechado septiembre de 2021. Las respuestas generadas a estos datos no incluyen referencias para escuchar dónde se tomó cierta información y puede estar sesgada.
  • “La mayor limitación de ChatGPT es autoimpuesta. Como parte de la política de moderación de contenido de la modelo, ChatGPT no responde a las preguntas que hayan sido clasificadas como dañadas o tendenciosas. Estos mecanismos de seguridad se actualizan constantemente, pero aún se pueden eludir en algunos casos con la ingeniería oportuna correcta”.
  • ChatGPT se deshace de la lista de información proporcionada al usuario para usar en respuesta a una amplia gama de indicaciones. Si un delito potencial no se relaciona con un área delictiva en particular, ChatGPT puede acelerar significativamente el proceso de investigación para brindar más información que puede explorar más adelante.
  • “Las capacidades de ChatGPT se presentan como una serie de posibles casos de abuso en el ámbito del terrorismo, la propaganda y la desinformación. el financiamiento o el intercambio anónimo de archivos”.

Tambien te puede interesar