ChatGPT es un poderoso chatbot de IA que impresiona rápidamente, pero mucha gente ha señalado que tiene algunos inconvenientes graves.
Desde violaciones de seguridad hasta respuestas incorrectas y datos no divulgados con los que fue entrenado, existen muchas preocupaciones sobre el chatbot impulsado por IA. Sin embargo, la tecnología ya se está incorporando a aplicaciones y millones de personas la utilizan, desde estudiantes hasta empleados de empresas.
Sin señales de que el desarrollo de la IA se esté desacelerando, es aún más importante comprender los problemas con ChatGPT. Con ChatGPT listo para cambiar nuestro futuro, estos son algunos de los problemas más importantes.
¿Qué es ChatGPT?
ChatGPT es un modelo de lenguaje grande diseñado para producir lenguaje humano natural. Al igual que conversar con alguien, puedes hablar con ChatGPT y recordará las cosas que has dicho en el pasado y al mismo tiempo será capaz de corregirse a sí mismo cuando lo desafíen.
Fue entrenado en todo tipo de texto de Internet, como Wikipedia, publicaciones de blogs, libros y artículos académicos. Además de responderle de forma humana, puede recordar información sobre nuestro mundo actual y extraer información histórica de nuestro pasado.
Aprender a usar ChatGPT es simple y es igualmente fácil dejarse engañar pensando que el sistema de inteligencia artificial funciona sin problemas. Sin embargo, desde su publicación, han surgido problemas clave en torno a la privacidad, la seguridad y su impacto más amplio en la vida de las personas, desde el empleo hasta la educación.
1. Amenazas a la seguridad y preocupaciones sobre la privacidad
Hay muchas cosas que no debes compartir con los chatbots de IA, y por una buena razón. Escribir sobre sus datos financieros o información confidencial de su lugar de trabajo conlleva un riesgo. OpenAI conserva su historial de chat en sus servidores y puede compartir estos datos con un número selecto de grupos de terceros.
Además, dejar sus datos en la seguridad de OpenAI ha demostrado ser un problema. En marzo de 2023, una violación de seguridad significó que algunos usuarios de ChatGPT vieran encabezados de conversaciones en la barra lateral que no les pertenecían. Compartir accidentalmente los historiales de chat de los usuarios es una preocupación seria para cualquier empresa de tecnología, pero es especialmente malo considerando cuántas personas usan el popular chatbot.
Según lo informado porReuters, ChatGPT tenía 100 millones de usuarios activos mensuales solo en enero de 2023. Si bien el error que causó la infracción se solucionó rápidamente, Italia prohibió ChatGPT y exigió que dejara de procesar los datos de los usuarios italianos.
La organización de vigilancia sospechaba que se estaban infringiendo las normas europeas de privacidad. Después de investigar el problema, solicitó que OpenAI cumpliera con varias demandas para restablecer el chatbot.
OpenAI finalmente resolvió el problema con los reguladores realizando varios cambios importantes. Para empezar, se agregó una restricción de edad, limitando el uso de la aplicación a personas mayores de 18 o 13 años con permiso de un tutor. También hizo más visible su Política de Privacidad y proporcionó unaformulario de exclusión voluntaria de Googlepara que los usuarios excluyan sus datos de su entrenamiento o eliminen el historial de ChatGPT por completo.
Estos cambios son un gran comienzo, pero las mejoras deberían extenderse a todos los usuarios de ChatGPT.
Puede que no creas que compartirías tus datos personales tan fácilmente, pero todos somos susceptibles a un desliz, y un buen ejemplo de esto es cómo un empleado de Samsung compartió información de la empresa con ChatGPT.
2. Preocupaciones sobre la capacitación y la privacidad de ChatGPT
Tras el lanzamiento masivamente popular de ChatGPT, los críticos han cuestionado cómo OpenAI entrenó su modelo en primer lugar.
Incluso con cambios mejorados en las políticas de privacidad de OpenAI luego de una violación de datos, puede que no sean suficientes para cumplir con el Reglamento General de Protección de Datos (GDPR), la ley de protección de datos que cubre Europa. ComoTechCrunchinformes:
¿No está claro si los italianos? ¿Los datos personales que se utilizaron históricamente para entrenar su modelo GPT, es decir, cuando extrajo datos públicos de Internet, se procesaron con una base legal válida? o, de hecho, si los datos utilizados anteriormente para entrenar modelos se eliminarán o podrán eliminarse si los usuarios solicitan que se eliminen sus datos ahora.
Es probable que OpenAI haya recopilado información personal cuando entrenó ChatGPT por primera vez. Si bien las leyes de Estados Unidos son menos definitivas, las leyes de datos europeas protegen los datos personales, ya sea que publiquen esa información de forma pública o privada.
Argumentos similares en contra de los datos de entrenamiento de ChatGPT son expresados por artistas que dicen que nunca dieron su consentimiento para que su trabajo se utilizara para entrenar un modelo de IA. Al mismo tiempo, Getty Images ha demandado a Stability.AI por utilizar imágenes con derechos de autor para entrenar sus modelos de IA.
A menos que OpenAI publique sus datos de capacitación, la falta de transparencia dificulta saber si se realizó legalmente. No conocemos los detalles sobre cómo se entrena ChatGPT, qué datos se utilizaron, de dónde provienen o cómo se ve la arquitectura del sistema en detalle.
3. ChatGPT genera respuestas incorrectas
Falla en matemáticas básicas, parece que no puede responder preguntas lógicas simples e incluso llega a argumentar hechos completamente incorrectos. Como atestiguarán las personas en las redes sociales, ChatGPT puede equivocarse varias veces.
OpenAIconoce esta limitación y escribe que: "ChatGPT a veces escribe respuestas que suenan plausibles pero son incorrectas o sin sentido". Esta “alucinación” de realidad y ficción, como se la ha denominado, es especialmente peligrosa en aspectos como el consejo médico o la información correcta sobre acontecimientos históricos clave.
ChatGPT inicialmente no usaba Internet para buscar respuestas, a diferencia de otros asistentes de inteligencia artificial como Siri o Alexa con los que quizás estés familiarizado. En lugar de eso, construyó una respuesta palabra por palabra, seleccionando la “ficha” más probable que debería aparecer a continuación según su entrenamiento. En otras palabras, ChatGPT llega a una respuesta haciendo una serie de conjeturas probables, lo cual es parte de por qué puede argumentar respuestas incorrectas como si fueran completamente ciertas.
En marzo de 2023, ChatGPT se conectó a Internet, pero rápidamente se desconectó nuevamente. OpenAI no reveló demasiada información, pero dijo que "ChatGPT Browse beta ocasionalmente puede mostrar contenido de formas que no queremos".
La función Buscar con Bing se basó en la herramienta Bing-AI de Microsoft, que igualmente ha demostrado que no está lista para responder sus preguntas correctamente. Cuando se le pide que describa la imagen en una URL, debe admitir que no puede completar la solicitud. En cambio, Bing describió con gran detalle una guacamaya roja y amarilla; de hecho, la URL mostraba una imagen de un hombre sentado.
Puedes ver más alucinaciones divertidas en nuestra comparación entre ChatGPT, Microsoft Bing AI y Google Bard. No es difícil imaginar a las personas usando ChatGPT para obtener información y datos rápidos, esperando que esos resultados sean ciertos. Pero hasta ahora, ChatGPT no puede hacerlo bien, y asociarse con un motor de búsqueda Bing igualmente inexacto solo empeoró las cosas.
4. ChatGPT tiene prejuicios en su sistema
ChatGPT se capacitó en la escritura colectiva de humanos en todo el mundo, pasado y presente. Desafortunadamente, esto significa que los mismos sesgos del mundo real también pueden aparecer en el modelo.
Se ha demostrado que ChatGPT produce algunas respuestas terribles que discriminan el género, la raza y los grupos minoritarios, algo que la empresa está tratando de mitigar.
Una forma de explicar esta cuestión es señalar los datos como el problema, culpando a la humanidad por los sesgos arraigados en Internet y más allá. Pero parte de la responsabilidad también recae en OpenAI, cuyos investigadores y desarrolladores seleccionan los datos utilizados para entrenar ChatGPT.
Una vez más, OpenAI sabe que esto es un problema y ha dicho que está abordando el "comportamiento sesgado" recopilando comentarios de los usuarios y animándolos a marcar los resultados de ChatGPT que son malos, ofensivos o simplemente incorrectos.
Con el potencial de causar daño a las personas, se podría argumentar que ChatGPT no debería haberse hecho público antes de que se estudiaran y resolvieran estos problemas. Pero una carrera para ser la primera empresa en crear el modelo de IA más potente podría haber sido suficiente para que OpenAI dejara de lado la precaución.
Por el contrario, en septiembre de 2022 se lanzó un chatbot de IA similar llamado Sparrow, propiedad de la empresa matriz de Google, Alphabet. Sin embargo, se mantuvo deliberadamente a puerta cerrada debido a preocupaciones de seguridad similares. Casi al mismo tiempo, Facebook lanzó un modelo de lenguaje de inteligencia artificial llamado Galactica, destinado a ayudar con la investigación académica. Sin embargo, fue retirado rápidamente después de que muchas personas lo criticaran por arrojar resultados erróneos y sesgados relacionados con la investigación científica.
5. ChatGPT podría quitarle empleos a los humanos
El polvo aún no se ha asentado después del rápido desarrollo e implementación de ChatGPT, pero eso no ha impedido que la tecnología subyacente se integre en varias aplicaciones comerciales. Entre las aplicaciones que han integrado GPT-4 se encuentran Duolingo y Khan Academy.
La primera es una aplicación de aprendizaje de idiomas, mientras que la segunda es una herramienta de aprendizaje educativo diversa. Ambos ofrecen lo que es esencialmente un tutor de IA, ya sea en la forma de un personaje impulsado por IA con el que puedes hablar en el idioma que estás aprendiendo. O como tutor de IA que puede brindarle comentarios personalizados sobre su aprendizaje.
Este podría ser solo el comienzo de que la IA ocupe puestos de trabajo humanos. Los tipos de trabajos que corren mayor riesgo debido a la IA incluyen el diseño gráfico, la redacción y la contabilidad. Cuando se anunció que una versión posterior de ChatGPT aprobó el examen de la barra, el último obstáculo para que una persona se convierta en abogado, se hizo aún más plausible que la IA pudiera cambiar la fuerza laboral en un futuro cercano.
Según lo informado porEl guardián, Las empresas de educación registraron enormes pérdidas en las bolsas de valores de Londres y Nueva York, lo que pone de relieve la disrupción que la IA está causando en algunos mercados tan solo seis meses después del lanzamiento de ChatGPT.
Los avances tecnológicos siempre han provocado la pérdida de puestos de trabajo, pero la velocidad de los avances de la IA significa que múltiples industrias se enfrentan a cambios rápidos. Una gran variedad de trabajos humanos están viendo cómo la IA se filtra en el lugar de trabajo. Algunos trabajos pueden encontrar tareas menores que se completan con la ayuda de herramientas de inteligencia artificial, mientras que otros puestos pueden dejar de existir en el futuro.
6. ChatGPT desafía la educación
Puede pedirle a ChatGPT que revise su escrito o le indique cómo mejorar un párrafo. O puede eliminarse por completo de la ecuación y pedirle a ChatGPT que escriba todo por usted.
Los profesores han experimentado enviando tareas de inglés a ChatGPT y han recibido respuestas que son mejores que las que muchos de sus estudiantes podrían dar. Desde escribir cartas de presentación hasta describir temas importantes de una obra literaria famosa, ChatGPT puede hacerlo todo sin dudarlo.
Eso plantea la pregunta: si ChatGPT puede escribir para nosotros, ¿los estudiantes necesitarán aprender esta habilidad en el futuro? Puede parecer una pregunta existencial, pero desde que los estudiantes comenzaron a usar ChatGPT para ayudarlos a escribir sus ensayos, los educadores pronto tendrán que enfrentar la realidad.
Como era de esperar, los estudiantes ya están experimentando con la IA.El diario de Stanfordinforma que las primeras encuestas muestran que un número significativo de estudiantes han utilizado la IA para ayudar con las tareas y exámenes.
A corto plazo, las escuelas y universidades están actualizando sus políticas y determinando si los estudiantes pueden o no utilizar la IA para ayudarles con una tarea. Tampoco son sólo las materias que hablan inglés las que están en riesgo; ChatGPT puede ayudar con cualquier tarea que implique una lluvia de ideas, resumir o sacar conclusiones analíticas.
7. ChatGPT puede causar daños en el mundo real
No pasó mucho tiempo antes de que alguien intentara hacer jailbreak a ChatGPT, lo que dio como resultado un modelo de IA que podía eludir las barreras de seguridad de OpenAI destinadas a evitar que generara texto ofensivo y peligroso.
Un grupo de usuarios en elGrupo ChatGPT Redditnombró a su modelo de IA sin restricciones Dan, abreviatura de "Do Anything Now". Lamentablemente, hacer lo que quiera ha llevado a que los piratas informáticos intensifiquen las estafas en línea. También se ha visto a piratas informáticos vendiendo servicios ChatGPT sin reglas que crean malware y producen correos electrónicos de phishing, con resultados mixtos en el malware creado por IA.
Tratar de detectar un correo electrónico de phishing diseñado para extraerle detalles confidenciales es mucho más difícil ahora con el texto generado por IA. Los errores gramaticales, que solían ser una señal de alerta obvia, están limitados con ChatGPT, que puede escribir con fluidez todo tipo de texto, desde ensayos hasta poemas y, por supuesto, correos electrónicos poco fiables.
La velocidad a la que ChatGPT puede producir información ya ha causado problemas a Stack Exchange, un sitio web dedicado a proporcionar respuestas correctas a preguntas cotidianas. Poco después del lanzamiento de ChatGPT, los usuarios inundaron el sitio con respuestas que le pidieron a ChatGPT que generara.
Sin suficientes voluntarios humanos para resolver el trabajo atrasado, sería imposible mantener un alto nivel de respuestas de calidad. Sin mencionar que muchas de las respuestas fueron incorrectas. Para evitar daños al sitio web, se prohibieron todas las respuestas generadas mediante ChatGPT.
La difusión de información falsa también es una preocupación grave. La escala a la que ChatGPT puede producir texto, junto con la capacidad de hacer que incluso la información incorrecta suene convincentemente correcta, hace que todo lo que hay en Internet sea cuestionable. Es una combinación crítica que amplifica los peligros de la tecnología deepfake.
8. OpenAI tiene todo el poder
Un gran poder conlleva una gran responsabilidad, y OpenAI tiene una buena parte de ella. Es una de las primeras empresas de IA que realmente revoluciona el mundo no con uno sino con múltiples modelos de IA generativa, incluidos Dall-E 2, GPT-3 y GPT-4.
Como empresa privada, OpenAI selecciona los datos utilizados para entrenar ChatGPT y elige la rapidez con la que implementa nuevos desarrollos. A pesar de que los expertos advierten sobre los peligros que plantea la IA, OpenAI no muestra signos de desaceleración.
Por el contrario, la popularidad de ChatGPT ha estimulado una carrera entre las grandes empresas tecnológicas que compiten para lanzar el próximo gran modelo de IA; entre ellos se encuentran Bing AI de Microsoft y Bard de Google. Temiendo que el rápido desarrollo conduzca a graves problemas de seguridad, líderes tecnológicos de todo el mundo escribieron una carta pidiendo que se retrasara el desarrollo.
Si bien OpenAI considera la seguridad una alta prioridad, hay muchas cosas que no sabemos sobre cómo funcionan los modelos, para bien o para mal. Al final del día, la única opción que tenemos es confiar incondicionalmente en que OpenAI investigará, desarrollará y utilizará ChatGPT de manera responsable.
Ya sea que estemos de acuerdo con sus métodos o no, vale la pena recordar que OpenAI es una empresa privada que continuará desarrollando ChatGPT de acuerdo con sus propios objetivos y estándares éticos.
Abordar los mayores problemas de la IA
Hay mucho de qué entusiasmarse con ChatGPT, pero más allá de sus usos inmediatos, existen algunos problemas graves.
OpenAI admite que ChatGPT puede producir respuestas dañinas y sesgadas, con la esperanza de mitigar el problema recopilando comentarios de los usuarios. Pero su capacidad para producir texto convincente, incluso cuando los hechos no son ciertos, puede ser fácilmente utilizada por malos actores.
Las violaciones de privacidad y seguridad ya han demostrado que el sistema de OpenAI puede ser vulnerable, poniendo en riesgo los datos personales de los usuarios. Para agravar el problema, la gente está liberando ChatGPT y utilizando la versión sin restricciones para producir malware y estafas a una escala que no hemos visto antes.
Las amenazas a los empleos y el potencial de perturbar la educación son algunos de los problemas más que se están acumulando. Con tecnología completamente nueva, es difícil predecir qué problemas surgirán en el futuro, pero desafortunadamente, no tenemos que mirar muy lejos. ChatGPT ha generado una buena cantidad de desafíos que debemos abordar en el presente.