ChatGPT y los ciberdelincuentes: la preocupante realidad detrás de esta herramienta de inteligencia artificial.
El uso de ChatGPT en la tecnología ha sido un tema muy hablado en todo el mundo. Entre los temas más discutidos están los usos que se le puede dar a esta herramienta de inteligencia artificial conversacional.
Es importante destacar que ChatGPT es capaz de chatear con los usuarios, responder a sus preguntas y generar texto con ideas enlazadas. Esto ha impresionado a los usuarios por la naturaleza de sus respuestas y su capacidad para crear ideas. Estas funciones han despertado diferentes inquietudes y preocupaciones, no solo en el mundo académico y científico, sino también entre las autoridades.
De acuerdo con Europol, los ciberdelincuentes estarían explotando los sistemas de inteligencia artificial como ChatGPT, lo que representa un desafío para la aplicación de la ley. Esta tecnología ofrece un panorama sombrío, según la organización.
A pesar de esto, ¿deberíamos tener miedo de las inteligencias artificiales?
Sorprendentemente, el CEO de OpenAI, Sam Altman, ha expresado su preocupación sobre las innovaciones recientes en torno a la inteligencia artificial. Altman dijo que está especialmente preocupado por el uso de IA en la generación de campañas de desinformación a gran escala y también reconoció que ChatGPT puede escribir código informático, lo que aumenta el riesgo de que la tecnología sea usada para realizar ciberataques.
Altman también explicó que la nueva versión de ChatGPT, GPT-4, ya cuenta con la habilidad de entender imágenes y extraer información a partir de ellas, lo que significa que la IA ya puede resolver ciertos acertijos e incluso explicar memes que circulan por Internet.
Sin embargo, existe el riesgo de que la IA genere información falsa en el futuro, ya que ChatGPT utiliza un proceso de razonamiento deductivo en lugar de solo memorizar grandes cantidades de datos. Esto podría hacer que la IA comprenda el mundo de manera similar a los humanos, mediante la capacidad de razonar.
Aunque el CEO de OpenAI considera que es poco probable que se produzca una situación similar a la película ‘Terminator’, en la que una inteligencia artificial llamada Skynet toma el control del arsenal nuclear de varios países y le declara la guerra a la humanidad, es importante que se preste atención a los posibles riesgos de la inteligencia artificial y se trabaje en su regulación para evitar consecuencias no deseadas.