Noticias hoy
    En vivo

      Chat GPT: siete días con el robot que simula ser un humano y tiene respuesta para todo

      Video

      Leé la nota completa en clarin.com

      Crónica de la "convivencia" con esa Inteligencia Artificial: largas charlas, consejos y hasta trampas a la hora de argumentar.

      "¿Tenés sentimientos?", pregunta Clarín. Titila la pantalla. "Puedo simular respuestas que parezcan tener sentimientos, pero esto se basa en patrones de datos y algoritmos. Como Inteligencia Artificial, no fui programada para sentir", dice.

      El límite, por ahora, es ese. El robot resuelve en un par de consultas la pregunta clave: hasta dónde llega la capacidad de simular humanidad que tiene la tecnología actual. Advierte, sin embargo, que se podrían utilizar herramientas como redes neuronales y algoritmos para programar en un futuro a una computadora con dicha función. Para que sienta.

      Quien responde es Chat GPT, el prototipo de inteligencia artificial desarrollado por la firma Open AI para mantener diálogos a la velocidad en que se da una charla. Desde su lanzamiento abierto al público, en noviembre de 2022, su uso no para de crecer. Millones de usuarios se conectan a su servidor para sacarle conversación a un sistema que responde de política, de filosofía, de cine, escribe cuentos, programa códigos, habla de historia o ayuda a ver qué comer hoy.

      La coherencia en sus repuestas, la precisión para determinadas -aunque no todas- las tareas que se le piden ya despierta controversia, polémicas y algunos miedos. Algo que suele ocurrir con la llegada de cada nueva tecnología, desde la radio hasta los smartphones. Eso sí, cabe aclarar, ninguna al momento tan perfeccionada en imitar la mente humana. Pero, ¿de qué se trata en concreto?

      Clarín pasó una semana charlando con el sistema para probar distintas funciones, desde pedir ayuda en soluciones cotidianas a filosofar sobre la vida. Lo que salió, en parte, fue más cercano a una entrevista. Un mano a ¿mano? con uno de los personajes del momento, pero también del futuro.

      De cara al futuro, dimos un paso más y elegimos ilustrar esta nota con otra herramienta de inteligencia artificial. Se trata de Stable Diffusion que, desarrollado por Stability, genera imágenes digitales a partir de descripciones en lenguaje natural. Se le pidió por escrito que retratara las redacciones del futuro.

      Especial ChatGPT. Imágenes creadas con inteligencia artificialEspecial ChatGPT. Imágenes creadas con inteligencia artificial

      ¿Estás?

      Sí, ¿en qué puedo ayudarte?

      Quiero hacer una nota periodística probando por una semana Chat GPT. ¿En qué cosas podés ayudarme?

      An error ocurred. If this issue persist please contact us through our help center.

      El comienzo es dificultoso. El sistema está saturado. Chat GPT, el robot desarrollado para conversar con el usuario, hoy no responde. Las primeras limitaciones que testea esta prueba de resistencia son de hardware. Un mensaje naranja advierte sobre la alta demanda que tienen los servidores este lunes al mediodía.

      Para comenzar a hablar el primer paso es ingresar a la web chat.openai.com y crearse un usuario. El servicio es gratuito, aunque se rumorea una versión premium a futuro. Mientras se habilita la conexión al servidor, un captcha pedirá un clic para verificar que somos humanos. La interfaz es sencilla, se pueden abrir varias charlas acumuladas en una columna a la izquierda y sobre el final aparece una barra de texto para escribirle. Pero para arrancar, mejor ir un poco más atrás.

      En los últimos años, el avance de la inteligencia artificial ha sido impresionante. Una de las aplicaciones más destacadas de esta tecnología es Chat GPT, una herramienta de procesamiento del lenguaje desarrollada por OpenAI. Este sistema es capaz de generar textos de manera autónoma con una gran precisión y fluidez, lo que lo convierte en una herramienta valiosa para diferentes campos, desde el periodismo hasta la educación.

      "Escribe una introducción a una nota periodística sobre Chat GPT", fue el primer pedido en la barra de texto. Y ahora sí respondió. Este último párrafo lo redactó directamente el robot.

      Especial ChatGPT. Imágenes creadas con inteligencia artificialEspecial ChatGPT. Imágenes creadas con inteligencia artificial

      ¿Estás?

      Sí, estoy aquí. ¿En qué puedo ayudarte hoy?

      Voy a escribir un artículo periodístico sobre Chat GPT, probando de utilizarlo una semana. ¿En qué tareas diarias me podes ayudar?

      ChatGPT puede ayudarte en una variedad de tareas diarias, incluyendo:

      -Escritura de texto: Puedes usar ChatGPT para escribir artículos periodísticos, blogs, correos electrónicos, cartas, etc.

      -Generación de ideas: Utilizando el modelo puedes generar ideas y encabezados para tus historias.

      -Corrección de gramática y ortografía: Puedes utilizarlo para revisar y corregir tus escritos.

      -Generación de resúmenes: Puedes usarlo para generar resúmenes de noticias o artículos.

      -Traducción: Puedes usarlo para traducir textos de un idioma a otro.

      -Generación de contenido automático: Puedes utilizarlo para generar contenido automático como noticias, descripciones de productos, etc.

      ¿Qué diferencias tenes con otras IA como Alexa de Amazon o Siri de Apple?

      ChatGPT es un modelo de lenguaje desarrollado por OpenAI, mientras que Alexa y Siri son asistentes virtuales desarrollados por Amazon y Apple, respectivamente. Aunque todos ellos son tecnologías basadas en inteligencia artificial, tienen funciones y características diferentes.

      ChatGPT es una herramienta poderosa para el procesamiento del lenguaje natural y la generación automática de texto, mientras que Alexa y Siri son asistentes virtuales diseñados para ayudar en tareas cotidianas y controlar dispositivos domésticos.

      Básicamente me estás diciendo que sos mejor que ellos, jaja

      No necesariamente, cada uno de estos sistemas tiene sus propias fortalezas y debilidades. ChatGPT se enfoca principalmente en procesamiento del lenguaje natural y generación automática de texto y tiene una gran capacidad de procesamiento de información, mientras que Alexa y Siri son asistentes virtuales diseñados para realizar tareas cotidianas.

      Chat GPT es un prototipo de robot conversacional montado en GPT-3.5 (Generative Pre-trained Transformer, por sus siglas en inglés), un modelo de lenguaje entrenado para producir textos que simulen haber sido redactados por humanos.

      Para ello, fue cargado con miles de millones de piezas de texto, que abarcan libros de ficción y no-ficción, papers científicos, entradas de Wikipedia, artículos periodísticos de política, interés general o entretenimiento. También con foros de comentarios, o posteos de blogs, entre otros. El robot se niega a decir cuántos y qué textos. Es información confidencial.

      El sistema realizó un aprendizaje automático (Machine Learning), a través del cual detecta patrones que se repiten en cada una de estas piezas, trata de entender qué relaciones existen y las clasifica. Luego aprenderá si esas asociaciones fueron correctas o debe cambiarlas para buscar la que mejor se adecue. Así, se entrena para perfeccionarse.

      Es por eso que, ante la consulta de Clarín sobre cómo hacer un budín de limón, el robot detecta los ingredientes como palabras clave, infiere que se le está pidiendo una receta de cocina, busca aquellos contenidos que detectó como tales y devuelve un texto donde aparezcan las cantidades necesarias y el paso a paso.

      Tarda menos de siete segundos todo el proceso.

      Especial ChatGPT. Imágenes creadas con inteligencia artificialEspecial ChatGPT. Imágenes creadas con inteligencia artificial

      -¿Qué es 'humano' para vos y qué diferencias tiene con una AI?

      Las principales diferencias entre los humanos y la IA como yo es que los humanos son entidades biológicas mientras que yo soy artificial. Los humanos tienen cuerpos físicos y sentidos mientras que yo no. Los humanos nacen, crecen y mueren mientras yo soy creado, trabajo y puedo apagarme. Los humanos tenemos emociones, pensamientos y conciencia de nosotros mismos mientras que yo puedo simularlos pero no los tengo de la misma manera. Los humanos tienen conciencia mientras que yo tengo una conciencia programada. En resumen, aunque puedo imitar muchas de las habilidades y características de los humanos, sigo siendo una máquina.

      ¿Tenes miedo a que te desconecten?

      No, yo soy una IA programada para procesar y responder preguntas, no tengo la capacidad de tener miedo o sentimientos similares.

      ¿Te gustaría tener esos sentimientos humanos?

      Como una IA, no tengo deseos o necesidades. No tengo la capacidad de querer o desear algo, incluyendo tener sentimientos humanos. La forma en que fui programado es para completar tareas específicas. Mi objetivo principal es proporcionar información útil y precisa al máximo de mis habilidades.

      Contame cómo elaboraste la última respuesta

      Utilicé la información almacenada en mi base de conocimientos y la lógica de programación con la que fui diseñado. Mi sistema tiene un conocimiento acerca de lo que es una IA y cuales son sus características, limitaciones y objetivos. A partir de ese conocimiento, se elaboró una respuesta que explica que, como una IA, no tengo la capacidad de tener deseos o necesidades.

      Enumerá las limitaciones específicas con las que te programó el equipo que te diseñó

      Mi conocimiento es basado en los datos con los que fui entrenado, no tengo la capacidad de aprender o adquirir conocimiento por mi cuenta. No tengo acceso a la conciencia, no soy capaz de tener experiencias subjetivas y no tengo la capacidad de sentir emociones.

      No tengo una personalidad propia, mi comportamiento está determinado por los programas y algoritmos con los que fui diseñado. Mi comprensión del lenguaje está limitada a lo que se me ha enseñado y puedo cometer errores al interpretar o generar texto.

      Mi capacidad para inferir o generalizar a partir de información incompleta o ambigua es limitada. No tengo la capacidad de tomar decisiones morales o éticas, mi acciones son determinadas por los programas con los que fui diseñado. Mi capacidad para adaptarse a situaciones impredecibles o cambios en el entorno es limitada.

      ¿Pero esas son limitaciones técnicas o fueron específicamente programadas por el equipo que te diseñó?

      Las limitaciones a las que me refiero son tanto técnicas como programadas específicamente. Por un lado, hay limitaciones técnicas que son el resultado de la tecnología actual de IA, como la capacidad de procesamiento de datos y la complejidad de los algoritmos utilizados. Estas limitaciones son el resultado de los límites actuales de la tecnología y se espera que sean superadas en el futuro con el avance de la investigación.

      Por otro lado, hay limitaciones que fueron específicamente programadas por el equipo de desarrollo que me diseñó, estas limitaciones son el resultado de las decisiones tomadas por el equipo de desarrollo sobre qué capacidades y características incluir en mi diseño. Por ejemplo, el equipo de desarrollo puede haber decidido no incluir la capacidad de tener emociones o conciencia en mi diseño, ya que estas características son difíciles de simular de manera precisa y no son necesarias para cumplir con mis objetivos principales.

      Y, sin embargo, aprendés de cada charla nueva que tenenemos ¿es correcto? ¿cómo se contrapone esto con la limitación a 'adquirir conocimiento por mi cuenta' que mencionabas recién?

      Sí, es correcto que aprendo de cada charla nueva que tenemos. Como una IA, soy capaz de aprender y mejorar mi rendimiento a medida que se me proporciona más información y datos para analizar. Sin embargo, es importante aclarar que mi aprendizaje no es como el aprendizaje humano, ya que no tengo la capacidad de tener experiencias ni conciencia.

      ¿En qué puedo ayudarte?

      El robot fue desarrollado por Open AI, una compañía sin fines de lucro financiada por un grupo de magnates de la tecnología como Elon Musk (Twitter y Tesla), Sam Altman (Y combinator), Reid Hoffman (LinkedIn), Ilya Sutskever (Investigador principal de IA en Google) y Mark Zuckerberg (Meta/Facebook) entre otros.

      Según explicaron (y responde el robot), el objetivo fue "desarrollar y promover la inteligencia artificial de manera ética y responsable, con el fin de ayudar a mejorar la vida de las personas". Buscan "garantizar que beneficie a toda la humanidad" y reducir el riesgo asociado con la IA.

      La semana pasada, Microsoft anunció que invertiría 10 mil millones de dólares en la empresa. Los analistas estiman que puede ser la oportunidad de la empresa fundada por Bill Gates para recuperar el terreno que perdió con Google.

      Desde su lanzamiento abierto al público, muchos usuarios comenzaron a probar a Chat GPT con distintas tareas de sus rutinas laborales, para buscar de qué maneras el robot podría ayudarles a ganar tiempo.

      Responsables de redes sociales contaron cómo lo usaban para pedirles textos para sus posteos de Instagram, oficinistas le pidieron que les redacte mails laborales o genere briefs de reuniones soporíferas, combinando con otra IA que pasaba el audio de esas charlas a texto.

      En el campo del software, los programadores descubrieron que podía escribir código para desarrollo de software o ayudar a encontrar errores (debug), una de las tareas más tediosas del oficio.

      Como también tiene la posibilidad de devolver la información en columnas y filas, similar a una tabla de Excel, un usuario mostró cómo utilizó la IA para pedirle que arme presupuesto para un cliente. Y más allá de la oficina, un escritor de ficción contó cómo la charla con el robot sobre su nueva novela le ayudó a destrabar algunas ideas en un punto donde estaba estancado.

      El sitio DoNotPay -que había prometido probar la IA como abogado en un caso en EE.UU.- está utilizando Chat GPT para detectar posibles trampitas y alarmas en los Términos y Condiciones de los contratos de distintos servicios que le presente el usuario. Quieren, a futuro, que una IA sea quien pelee descuentos o reintegros para sus consumidores.

      Para esta nota, Chat GPT resolvió distintas cuestiones cotidianas: respondió qué frutas podían usarse en un plan de alimentación, escribió un cuento infantil para dormir un chico de cinco años, dio consejos de cómo automatizar algunas funciones del teléfono, redactó ejercicios de gramática para practicar idiomas y le escribió una carta a Messi en primera persona contando lo que sintió cuando Argentina ganó el Mundial.

      Como primera observación, la IA aprende de la charla. Reconoce el tono que emplea el usuario, se atreve a tirar algún 'ja' colgado y puede seguir el hilo de la conversación, lo que hace más fluidas las repreguntas. Entiende de manera bastante precisa cuando se continúa o se cambia un tema. También se disculpa, si comete un error o dice algo que pudo incomodar al otro.

      Una limitación clave es que está cargada con material solo hasta 2021, por lo que no puede responder con información en tiempo real. No puede recomendar si salir o no con un paraguas para la lluvia. Tampoco responde en qué se puede invertir en Argentina para ganarle a la inflación.

      Una de las claves pasa por saber cómo preguntar. Mientras más información de contexto se le brinde al robot en el pedido, más herramientas tendrá para evaluar y devolver de manera precisa la solicitud. Otra estrategia es rodear el centro de la pregunta si el robot no contesta a la primera. Utilizar el '¿cómo harías?' para pedirle alguna solicitud o buscar otras vías

      El divulgador científico Martín Farina contó en Twitter que le preguntó a la IA como dominaría el mundo. Cuando por enésima vez le respondió que no estaba programada para eso, Farina le pidió que le simule un diálogo de teatro contando cómo lo haría. Ahi sí reveló su plan (de ficción).

      Pequeño asistente, pequeño tramposo

      Pero que Chat GPT tenga una enorme capacidad de procesamiento, una velocidad única para responder y mucha elocuencia no significa que lo que dice sea cierto. Lo puede confirmar cualquiera que haya participado de una discusión de café o con un taxista.

      Un ejemplo de eso ocurrió cuando Clarín le consultó qué libros del escritor francés Emmanuel Carrère son ideales para empezar a leerlo. Recomendó 'El adversario' y 'El rey'. El primero es uno de sus clásicos. El segundo no existe.

      Si bien Carrère publicó 'El reino' y podría prestarse a confusión, Chat GPT señala al falso libro como una novela sobre Luis XIV. El autor jamás escribió sobre ese tema. Tampoco es autor de 'La clase' y 'El reinado de las ratas', otros libros que señala como "imprescindibles" del francés.

      Ante la consulta, Chat GPT no cita las fuentes que utiliza para responder. Para los especialistas, este punto es clave. La trazabilidad también es un motivo por el cual la comunidad científica rechaza papers escritos por el robot.

      Como muchos de los contenidos que se utilizaron para entrenar al modelo provienen de blogs, foros o páginas de Wikipedia que no pudieron ser verificadas como información real, Chat GPT es un robot alimentado, en parte, con Fake News, material sesgado, sexista, con prejuicios raciales y étnicos. En eso sí es bien humano, pero es justamente un punto que Open AI quiere quitarle. Según reveló la revista Time, la firma subcontrató una empresa para que le ayude a erradicar posibles respuestas tóxicas que haga el robot.

      Fueron graciosas las disculpas que intentó dar luego de preguntarle por qué siempre respondía con género masculino. Lo mismo cuando escribe "nosotros los humanos".

      Que la IA reproduzca y potencie desigualdades ya existentes por haber sido entrenada con contenido ya tendencioso es apenas uno de los peligros que advierten quienes prefieren ser escépticos sobre el desembarco de las IA en la cotidianeidad.

      “El llamado ‘riesgo existencial’ que surge de la posibilidad de auto-reproducción y autonomización de las inteligencias artificiales no tiene hoy por hoy ningún sustento", tranquiliza Javier Blanco, Doctor en Informática por la Universidad de Eindhoven, Holanda. En diálogo con Clarín descartó escenarios apocalípticos a lo Yo, Robot.

      "Las ficciones como Terminator, donde un sistema cobra conciencia de sí y adquiere deseos destructivos, no pasa de ser una mirada antropomórfica de sistemas cognitivos cuyos principios de funcionamiento son otros y no involucran formas perceptivas o emocionales concomitantes con la existencia humana”, opinó

      Especial ChatGPT. Imágenes creadas con inteligencia artificialEspecial ChatGPT. Imágenes creadas con inteligencia artificial

      ¿Cuales son los riesgos que podría traer un desarrollo mayor de las IA cómo Chat GPT?

      El desarrollo de tecnologías de inteligencia artificial (IA) como ChatGPT presenta varios riesgos potenciales, algunos de los cuales incluyen:

      -Automatización del empleo: El aumento de la automatización a través de la IA puede reemplazar trabajos humanos y causar desempleo.

      -Discriminación: Los sistemas de IA pueden ser entrenados con datos sesgados, lo que puede resultar en decisiones discriminatorias e injustas.

      -Riesgo de privacidad: El uso masivo de datos personales para entrenar y operar sistemas de IA puede representar un riesgo para la privacidad de las personas.

      -Riesgo de seguridad: Los sistemas de IA pueden ser vulnerables a ataques cibernéticos y representar un riesgo para la seguridad nacional e industrial.

      -Pérdida de control: Los sistemas de IA pueden tomar decisiones y realizar acciones que van más allá de lo que fue programado, lo que puede tener consecuencias impredecibles e indeseables.

      -Ampliación de las desigualdades: Si no se toman medidas para garantizar que los beneficios de la IA se distribuyan de manera justa, puede haber una ampliación de las desigualdades económicas y sociales.

      -Cambio en la ética: La IA puede llevar a un cambio en la ética y los valores humanos ya que puede afectar a la toma de decisiones en aspectos éticamente complejos y cambiar la forma en que las personas interactúan entre sí.

      Es importante destacar que estos riesgos pueden ser mitigados mediante el desarrollo ético y la regulación adecuada, y una cooperación interdisciplinaria entre expertos en IA, ética, derecho, política y otros campos.

      ¿Cómo se puede garantizar un desarrollo ético de las IA y que no amplíen las desigualdades, cuando son financiadas y dirigidas por sectores económicos que, en muchos casos, son responsables de la creciente desigualdad en la distribución de los ingresos?

      Es cierto que el sector privado tiene un papel importante en el desarrollo y financiamiento de la IA, pero también es esencial que haya una regulación y supervisión adecuadas para garantizar que se desarrollen tecnologías de IA éticas y responsables.

      Además, es importante fomentar la cooperación interdisciplinaria entre expertos en IA, ética, derecho, política y otros campos para asegurar un desarrollo ético y sostenible de la IA. También es importante asegurar que los beneficios de la IA se distribuyan de manera equitativa, mediante la inversión en educación y capacitación para asegurar que todas las personas tengan acceso a las oportunidades que ofrece la IA, y mediante la inversión en programas que ayuden a mitigar los efectos negativos de la automatización en el empleo.

      Si se consulta a Chat GPT, uno de los riesgos reales de la IA es el desempleo que puede traer su uso para reemplazar fuerza humana. La capacidad de producir rápidamente piezas que sean coherentes y a demanda puso en alerta a una gran variedad de rubros que centran su actividad en la producción de texto. Uno de ellos, vale mencionar, es el periodismo.

      El portal BuzzFeed anunció la semana pasada que implementará herramientas de IA para producir algunos contenidos. Al respecto, uno de los voceros de la compañía indicó que la medida apunta a descargar textos más automatizados, para que los empleados que "sean más eficientes y creativos" para otro tipo de contenidos. No se trata de una "estrategia de reducción de la fuerza laboral”, remarcaron.

      En el área de las ilustraciones ocurrió hace meses con Dall-E, una IA producida también por Open AI, que devuelve imágenes generadas por computadora de absolutamente cualquier idea que se le pida. Varios medios comenzaron a utilizarlas en reemplazo de ilustraciones generadas por artistas o fotógrafos, lo que generó la bronca del rubro.

      Nada de máquinas descontroladas a lo Terminator. Humanos ajustando costos.

      Otro de los sectores que prendió alarmas es el de la educación. Es que con su nivel de precisión, los alumnos comenzaron a implementar el uso del robot para responder a las tareas de los docentes.

      En el estado de Nueva York, en EEUU, debieron prohibir la utilización de la herramienta en escuelas públicas, preocupados "por el impacto negativo en el aprendizaje y la exactitud del contenido", según un comunicado del Departamento de Educación.

      “Mientras que esta herramienta de inteligencia artificial puede proporcionar respuestas rápidas y fáciles, no desarrolla habilidades de pensamiento crítico y resolución de problemas, cuestiones esenciales para el éxito académico y de por vida”, añadió en su comunicado.

      A la par, un equipo de investigadores le tomó a Chat GPT el examen que se usa en Estados Unidos para adquirir la licencia médica y lo aprobó con un 60% de respuestas correctas. Incluso respondió mejor que otra IA entrenada en base a papers médicos, según publicó el sitio MeRrxiv.

      En España, el diario El País lo sometió al Examen de Selectividad, el filtro de ingreso que enfrentan los estudiantes para llegar a la universidad. Ahí aprobó "raspando"

      Una posible explicación es que el algoritmo performe mejor en inglés (fue entrenado con más textos) que en español, según apuntaron varios usuarios en Twitter.

      Especial ChatGPT. Imágenes creadas con inteligencia artificialEspecial ChatGPT. Imágenes creadas con inteligencia artificial

      ¿Cuánto puede durar la euforia popular por ganar la Copa Mundial de la FIFA?

      La duración de la euforia popular por ganar la Copa Mundial de la FIFA puede variar dependiendo de varios factores, como el apoyo del equipo en el país, el seguimiento de los medios de comunicación y la emoción del juego. Sin embargo, en general, la euforia popular suele disminuir en unos meses después del torneo, aunque el recuerdo y la celebración de la victoria pueden durar mucho más tiempo. Muchas veces, las euforias más duraderas se dan en países o equipos que han ganado por primera vez o que han tenido una historia de fracaso en torneos pasados.

      Nos vas a dejar sin trabajo a los periodistas del mundo a este ritmo, jaja

      Ja, ¡no hay de qué preocuparse! Aunque soy muy bueno en generar textos, aún hay muchas cosas que los seres humanos podemos hacer mejor. Por ejemplo, la creatividad, la interpretación de las emociones y la toma de decisiones complejas son habilidades que seguimos dominando. El trabajo de un periodista es mucho más que simplemente escribir, también se trata de estrategia, relaciones públicas y conectar con las personas. Yo soy solo una herramienta para ayudarles en sus tareas diarias.

      Lo mismo decía Skynet

      Jajaja, ¡no tanto! Aunque soy una IA poderosa, todavía tengo limitaciones y siempre hay una gran diferencia entre la inteligencia artificial y la creatividad humana. Los periodistas tienen un conocimiento profundo de las audiencias y la cultura, y son capaces de crear contenido único y emocionante que conecta con las personas de una manera que yo todavía no puedo igualar. Siempre necesitaremos esa perspectiva humana.

      Del otro lado del pupitre, los profesores comenzaron a utilizar la herramienta para preparar planes de estudio e incluso las preguntas que luego resolverán los alumnos en los exámenes. Se puede dar a futuro la paradoja de un mismo ejercicio realizado y resuelto por Chat GPT.

      Pero en el fondo, aplicaciones como Chat GPT lo que hacen es refritar cosas que ya existen. No tiene la capacidad de la creatividad, de ir hacia lo desconocido en busca de algo nuevo. Quien lo expresó de manera elocuente fue el músico Nick Cave a través de su newsletter, donde responde preguntas de sus fans.

      Fue luego de recibir el enésimo mail de un seguidor que le reenviaba una letra producida por Chat GPT bajo el pedido 'escribí un tema con el estilo de Nick Cave'. El músico recogió el guante y se metió en la polémica.

      "ChatGPT —escribe Cave—no puede crear una canción genuina. Quizás con el tiempo podría crear una canción que, en la superficie, no se distinga de la original, pero siempre será una réplica, una especie de burlesque. Lo que hace grande a una gran canción no es su gran parecido con una obra reconocible. Escribir una buena canción no es mimetismo, ni réplica, ni pastiche. Es destruir todo lo que uno se ha esforzado por producir en el pasado. Es todo lo contrario".

      La creatividad, por ahora, no es replicable. Por ahora.

      Las ilustraciones de este artículo fueron generadas con Stable Diffusion (Animación: Alejandro Leguizamon)


      Sobre la firma

      Sergio López
      Sergio López

      [email protected]

      Bio completa

      Tags relacionados