Europol advierte sobre el posible uso delictivo de ChatGPT
RT. La Agencia de la Unión Europea para la Cooperación Policial (Europol) advirtió este lunes sobre el posible uso indebido y delictivo del chatbot ChatGPT, basado en inteligencia artificial (IA), según lo plantea en un informe titulado ‘ChatGPT: el impacto de los grandes modelos lingüísticos en la aplicación de la ley’.
«A medida que se mejoran activamente las capacidades de los grandes modelos lingüísticos, como ChatGPT, la posible explotación de este tipo de sistemas de IA por parte de los delincuentes ofrece un panorama sombrío», sostiene el organismo.
En primer lugar, dice el documento, la capacidad de ChatGPT para crear textos muy realistas puede utilizarse para imitar el estilo de habla de personas o grupos específicos.
Además, las capacidades del bot pueden utilizarse con fines propagandísticos y de desinformación, ya que permite a los usuarios «generar y difundir mensajes que reflejen una narrativa concreta con relativamente poco esfuerzo».
ChatGPT es capaz de crear códigos en varios lenguajes de programación diferentes. «Para un delincuente potencial con pocos conocimientos técnicos, se trata de un recurso inestimable para crear un código malicioso«, afirma Europol.
Más allá de esto, es una herramienta de inteligencia artificial que ha ganado gran popularidad durante los últimos meses. De otra parte, el uso generalizado de sus increíbles posibilidades, como generar textos únicos y completar las tareas asignadas en segundos, está provocando preocupación en diversos círculos, desde el educativo hasta el financiero.
Así, por ejemplo, varios gigantes bancarios de Wall Street están limitando o prohibiendo el uso de ChatGPT entre sus empleados, bajo la premisa de que el popular ‘chatbot’ podría arrojar información o respuestas erróneas en el ámbito de los mercados y las comunicaciones comerciales.
Mientras tanto, hay otros estudios que respaldan las conclusiones de Europol. Una investigación realizada por la herramienta en línea de calificación de noticias NewsGuard confirmó la semana pasada que GPT-4, la última versión del popular sistema, tiene más probabilidades de argumentar información falsa, cuando así se le solicita, que su predecesor GPT-3.5.
Incluso el director ejecutivo de OpenAI, Sam Altman, admitió recientemente estar «un poco asustado» por haber creado ChatGPT y por el uso que las personas puedan darle.