Peligros del Chat GPT

 En una entrada anterior se ha hablado del Chat GPT.
  Desde entonces, este chatbot de inteligencia artificial ha progresado mucho, y también han aparecido otros chatbots del mismo tipo (Bard, por ejemplo).
  Sin embargo, pese al entusiasmo de algunos (especialmente los promotores de este programa), se debe tener precaución a la hora de utilizar este tipo de tecnología, ya que posee capacidades negativas, como ya se ha visto, en parte, en la mencionada entrada anterior de la presente bitácora.
  Por otra parte, al igual que sucede con cualquier otra herramienta, es posible emplearla con fines maliciosos.
  En primer lugar, los riesgos de las inteligencias artificiales siempre caen hacia el lado de los sesgos. Un robot que se entrena con cantidades masivas de textos producidos por humanos tiende a multiplicar los sesgos sexistas o racistas con los que fue alimentado, y este es un gran problema de los algoritmos de caja oscura actualmente.
  Además, debido a limitaciones introducidas por sus creadores, el Chat GPT no hace búsquedas en la red para tener información de acontecimientos recientes, no resuelve cuestiones de actualidad, y sus conocimientos llegan hasta un espacio de tiempo específico, el año 2021.
  Por otra parte, este programa tampoco contesta a ciertos requerimientos por una cuestión de principios, y OpenAI lo ha programado para rechazar “peticiones inapropiadas”.
  Puesto que este chatbot no razona, aunque parezca que sí, carece de la habilidad de entender verdaderamente la complejidad del lenguaje humano. Está entrenado simplemente para generar palabras que se basan en patrones estadísticos, por lo que concuerdan en sentido y gramática, pero no tiene la capacidad de comprender el significado de esas palabras.
  Y como está programado para ser conversacional, no para ser veraz, inventa hechos, personas, datos, y los mezcla en textos muy bien redactados y convincentes. Por lo tanto, es capaz de mentir. En OpenAI son conscientes de este problema, pero arreglarlo “es complicado, ya que (1) durante el entrenamiento, actualmente no hay una fuente de verdad; (2) entrenar al modelo para que sea más cauteloso hace que rechace preguntas que puede responder correctamente; y (3) el entrenamiento supervisado engaña al modelo porque la respuesta ideal depende de lo que sabe el modelo, en lugar de lo que sabe el demostrador humano".

USOS MALICIOSOS DE ESTE MODELO DE LENGUAJE


  El Chat GPT, como cualquier soporte lógico, puede emplearse con fines delictivos o, simplemente, con mala fe.
  Entre las formas malvadas más relevantes de emplear este programa, destacan:
  •   Generación de noticias falsas: Como es una máquina con la capacidad de generar información falsa, es decir, de mentir, especialmente si no encuentra suficiente información sobre un tema, se le puede pedir que cree una noticia falsa y distribuirla por Internet.
  •   Phishing: Aunque, en un principio, este programa indica que no es bueno realizar este tipo de actividad, puede ser utilizado por actores maliciosos para generar correos electrónicos persuasivos de manera automatizada con la intención de engañar a las personas y que entreguen sus credenciales u otra información confidencial.
  •   Robo de identidad: Chat GPT también posee la habilidad de crear engaños que se presenten como si fueran de una institución confiable, como un banco o una empresa, con el objetivo de obtener información privada y financiera de las personas. Incluso puede escribir en redes como si fuera un usuario cualquiera.
  •   Desarrollo de programas malignos: Dado que se puede utilizar como herramienta para la generación de código en diversos lenguajes de programación, es posible emplearlo para la generación de código de programas maliciosos. No obstante, cuando se le pide algo que pueda detectar como código malicioso, muestra una advertencia, en color naranja, sobre los riesgos de la solicitud y señala que incluso se podría estar violando la política de contenido del servicio.
  •   Automatización de procesos ofensivos: Cuando un cibercriminal quiere realizar ataques dirigidos, suele realizar un proceso de reconocimiento, lo cual incluye realizar ciertas tareas que tienden a ser repetitivas. Mediante este programa es posible crear un guión que automatice dichas tareas, a pesar de que, en ocasiones, advierte de la ilegalidad de utilizar herramientas de pirateo informático.
  •   Chats maliciosos: Posee una interfaz de programación de aplicaciones que le permite alimentar a otros chats, lo que puede ser usado con fines maliciosos.
  A pesar de que esta herramienta en línea permite seguir viendo el avance de la democratización y accesibilidad del conocimiento, cambiando el modo en el que se interactúa con los ordenadores, es evidente que todavía posee numerosos problemas e incógnitas que deben ser observados de cerca para poder determinar cuál es la evolución de la inteligencia artificial.

  Espero que la presente entrada haya sido interesante para el lector. De ser así, aguardo que éste la comente y/o la comparta.

No hay comentarios:

Publicar un comentario

Deje aquí su comentario, si no puede comentar, pruebe a hacerlo desde otro navegador de red u otro equipo.