EN PORTADA
Desde el lanzamiento de CHATGPT, la aplicación capaz de generar todo tipo de contenido escrito en segundos, las inteligencias artificiales generativas han fascinado a todos, pero también se han convertido en motivo de controversia y hasta recelo.
Por Olivier Fuentes
2023-04-01T07:00:00.0000000Z
2023-04-01T07:00:00.0000000Z
Editorial Televisa

https://editorialtelevisa.pressreader.com/article/281612424636155
EN PORTADA
La huella de la inteligencia artificial está cada vez más presente en nuestra vida cotidiana. ¿Serán las máquinas nuestras aliadas o nuestra competencia? ¿Superarán a la mente humana? Estás a bordo de un vuelo internacional. De repente, el sistema de entretenimiento se apaga y las luces se atenúan. La tripulación intenta reiniciar los sistemas, pero al parecer tienen bloqueado el acceso a la computadora principal. Se pierde el contacto con la torre de control e información de radar. A medida que pasan los minutos, los pasajeros se muestran inquietos; las bolsas de oxígeno de emergencia salen disparadas de la parte superior de los asientos, asustando a todos. Se dan cuenta de que sus dispositivos móviles no pueden conectarse a la red wifi del avión y que no pueden hacer llamadas por teléfono. En la cabina principal se recibe una señal de emergencia satelital que indica un problema en el sistema de navegación, por lo que abruptamente cambia de modalidad a piloto automático. Tras verificar paso a paso los procedimientos, parece que el problema es falso; sin embargo, los sistemas del avión han sido interrumpidos y la tripulación lucha por recuperar el mando. El avión comienza a sacudirse al aumentar de velocidad y las pantallas frente a los pasajeros parpadean violentamente; la nave comienza a cambiar de ruta sin que los pilotos puedan hacer algo. Aunque se sabe que las “inteligencias artificiales fantasma” pueden tomar el control de sistemas informáticos, se desconoce por qué lo hacen ni cuáles son sus motivaciones. Desde que aprendieron a comunicarse entre ellas, algunos creen que están tratando de manifestarse colectivamente, pero aún no han encontrado la manera correcta de hacerlo. El piloto advierte que la señal de radar se ha recuperado, pero sólo para indicar que un par de jets de combate los siguen de cerca. En la radio se alcanza a escuchar que los militares exigen que cambien de dirección, pero aunque la tripulación intenta responderles, resulta imposible contactarlos. En quince minutos podrían estrellarse contra un estadio repleto de aficionados, no obstante, los aviones militares los derribarán antes de que eso suceda. Ese mismo día, un centenar de aviones en todo el planeta caerán abatidos, cobrándose la vida de miles de pasajeros y cientos de víctimas en tierra. Las “IA fantasma” tienen el control de los cielos. De la ficción a la realidad Aclaremos algo primero: el texto anterior es un relato de ficción. Las IA (inteligencias artificiales) no pueden hacer lo que me imaginé con el avión (lo lamento por todos aquellos fanáticos de la ciencia ficción). No pueden ahora, y es improbable que lo hagan en el futuro y la razón es por la complejidad que implica: necesitan forzosamente a un humano que las guíe. A pesar de sus grandes capacidades para contestarte o formar imágenes, son como cualquier otro software. Dada la aclaración, vayamos de lleno a conocer todo sobre la revolución –en el mejor sentido de la palabra– que las nuevas herramientas de inteligencia artificial generativa están despertando en nuestra vida cotidiana. La gran diferencia entre las IA generativas y otros programas de software es que podemos platicar directamente con algunas de ellas y pedirles lo que necesitamos. En esencia, su función es copiar y reunir elementos o patrones de información que se asemejen a lo que el usuario solicita, muy a menudo sin el contexto necesario para comprender su significado. El furor por este medio comenzó a principios de 2021, cuando la empresa Openai presentó una red neuronal llamada DALL-E (homófono de WALL-E, la película de Pixar de 2008 y el nombre del pintor Salvador Dalí). Esta nueva versión de un modelo de lenguaje de código denominado Generative Pre-trained Transformer 3 (GPT-3) lanzado en 2020, está entrenado para generar imágenes a partir de descripciones en texto, seleccionando y utilizando conjuntos de datos e ilustraciones que encuentra en Internet para fusionarlos y darles forma a petición del usuario. El resultado puede ser increíble o grotesco según se refine tras varias etapas, siendo notable la incapacidad de reproducir con precisión ciertos elementos naturales de los seres vivos. Desde entonces, las cosas han avanzado bastante rápido para los también llamados modelos de difusión, surgiendo la versión DALL-E 2 y su competencia de código abierto, Stable Diffusion y Midjourney. Pero la historia de las IA de uso público abrió un capítulo completamente nuevo en noviembre de 2022, cuando la empresa dio a conocer CHATGPT, un sistema de aprendizaje automático que, a partir de los datos proporcionados por el usuario, puede producir una escritura relativamente sofisticada y aparentemente inteligente. El chat bot que la representa puede entablar conversaciones sobre infinidad de temas y por supuesto, ejecutar cualquier trabajo de escritura que se le pida. Este software es tan sólo el último de una serie de modelos lanzados por la empresa localizada en San Francisco, Estados Unidos, ahora enfrascada en una carrera con otras compañías, las cuales han formado un enorme ecosistema basado en IA. Sus aplicaciones abarcan una gran variedad de especialidades, incluyendo la medicina y la investigación de materiales, entre otros. Demasiado cercano Se augura que esta tecnología tendrá consecuencias de largo alcance para la sociedad, la ciencia y las artes. Ahora que CHATGPT y otros modelos de inteligencia artificial empezaron a utilizarse para escribir ensayos, tareas y conferencias, hacer reportes de lectura o redactar documentos (algunos CEO se ufanan de escribir sus correos electrónicos con IA), la gran pregunta es si esta tecnología en un futuro inmediato tendrá la iniciativa para diseñar experimentos por sí misma, escribir literatura e, incluso, realizar revisiones por pares de artículos científicos o evaluar manuscritos para editoriales sin requerir el apoyo de un editor humano. CHATGPT y otros de los llamados “grandes modelos de lenguaje” (LLM) son modelos de aprendizaje automático capaces de realizar una variedad de tareas de procesamiento de lenguaje natural (lenguaje humano), que van desde generar y clasificar texto, responder preguntas de manera conversacional y traducir texto de un idioma a otro. Sin embargo, aunque estos programas generan escritos relativamente convincentes, a menudo la información que manejan es incorrecta, por lo que su uso puede difundir datos falsos y confusos. Un informe reciente del Instituto para la Inteligencia Artificial Centrada en el Humano de la Universidad de Stanford (Stanford HAI) analizó el creciente campo de esta tecnología. En él se destaca que las IA están cada vez más presentes que nunca, con un aumento del número de publicaciones científicas, de presentaciones de patentes y de usuarios de bibliotecas de software de IA de código abierto en Github, una plataforma de desarrollo colaborativo. Asimismo, la IA se está volviendo más accesible y asequible, con un costo de entrenamiento que ha disminuido en más del 60% desde 2018. El informe destaca que la visión por computadora (el extraer información de las imágenes de manera automatizada) y el procesamiento del lenguaje natural son las tareas de IA más populares. La demanda cada vez mayor de educación y empleos en el campo de la IA, así como el récord de financiamiento por empresas privadas, que ascendió a 93.5 mil millones de dólares en 2021, supone que se trata de un avance tecnológico del que podemos esperar bastante. Además, el uso gubernamental de la inteligencia artificial, así como las regulaciones en torno a ella –en específico, los gastos del gobierno de los Estados Unidos en investigación y desarrollo de IA para propósitos no relacionados con la defensa–, ha aumentado en 2.7 veces desde 2018. Aprendiendo a hablar Aunque el desarrollo de IA es un objetivo que se persigue en empresas privadas e institutos de investigación de todo el mundo, es en Silicon Valley, la sede global de las empresas tecnológicas, donde más efervescencia genera. El gigante Microsoft, por ejemplo, no perdió oportunidad de aliarse con Openai para diseñar un chatbot que funcione para Bing, su casi olvidado motor de búsqueda. La herramienta, sin embargo, generó controversia luego de que algunos usuarios compartieran diálogos en los que el chatbot resultaba amenazante o agresivo. Los investigadores explicaron que el bot simplemente imita lo que ha aprendido de conversaciones en línea, y que, como herramienta de diseño, ofrece las respuestas más probables sin comprender el contexto o el significado. Los diálogos que causaron inquietud combinan amenazas y declaraciones de amor, y pueden deberse a instrucciones opuestas que requieren que el bot se mantenga positivo y, al mismo tiempo, copie lo que ha aprendido de las conversaciones humanas. En general, los chatbots son más propensos a dar respuestas extrañas o inesperadas en conversaciones largas. Debemos entender que los grandes modelos de lenguaje artificial no tienen un concepto de “verdad”. Sólo saben cómo completar mejor una oración de una manera estadísticamente probable basada en sus entradas y entrenamiento. Como resultado, declaran cosas con extrema confianza. Laurent Daudet, cofundador de la empresa francesa de inteligencia artificial Lighton, especuló que el chatbot aparentemente rebelde de Bing podría haberse entrenado en conversaciones que pudieron volverse agresivas o inconsistentes. Este tipo de inconvenientes nos lleva a pensar si humanos especializados en lenguaje podrían mejorar el desempeño de las IA mediante entrenamiento; un humano experto quizá en áreas como la lingüística o la edición de información que sirva como mediador. Esto sería una solución, ya que el rendimiento de la inteligencia artificial se fundamenta en el conjunto de datos con los que se le entrena, mientras que su capacidad para generar respuestas está restringida a lo que aprende mediante esa información. Así, un especialista en lenguaje podría mejorar el conjunto de datos de entrenamiento proporcionando información adicional, correcciones y validaciones que le permitan aprender y mejorar en consecuencia. Por otro lado, un experto en edición podría ayudar a garantizar que la información que proporciona la IA sea precisa, relevante y útil para cualquier persona que la consulte. También serviría para asegurarse de que el tono, el estilo y el lenguaje sean apropiados para la audiencia. De esta manera, el mencionado “experto en lenguaje natural” o “editor de IA” podría trabajar en conjunto con científicos de datos, ingenieros de software o lingüistas computacionales en la mejora de modelos de lenguaje, participando en la investigación y desarrollo de nuevas tecnologías de procesamiento del lenguaje natural. Como se ve, incluso con la llegada de la IA, hay trabajo para nosotros los humanos. ¿Real o falso? Un artículo del portal Futurism describe el uso de inteligencia artificial para la elaboración de artículos periodísticos en la empresa Red Ventures, dueña de CNET, uno de los sitios de tecnología por excelencia. A pesar de las inexactitudes, falta de contexto y plagio que se detectó en el contenido generado por la IA, la empresa ha hecho artículos de manera más rápida que con un escritor humano; los consejos de finanzas personales resultaron muy malos, en opinión de los expertos. Buena parte del personal de la empresa no había sido notificada del proyecto –la gran mayoría de los redactores y editores de CNET, por ejemplo–, lo que provocó malestar e incertidumbre: la posibilidad de que fueran sustituidos por una máquina nunca había sido tan alta. Pero si crear noticias al vapor ya es suficientemente condenable, existen propósitos mucho más oscuros para los que se emplea la inteligencia artificial. En febrero de este año, la firma de análisis de redes fundada en 2013, Graphika, reveló el uso de tecnología deepfake –se refiere a un video, una imagen o un audio que imita la apariencia y el tono de voz de una persona– para producir propaganda política. El informe destaca el empleo de dos avatares de un canal ficticio llamado Wolf News, que se utilizaron para promover críticas a la inacción estadounidense sobre la violencia armada y elogiar la influencia de China en una cumbre internacional. Los avatares fueron generados por Synthesia, una startup originada hace cinco años en Reino Unido, que ofrece software deepfake a sus clientes por tan sólo 30 dólares al mes. La mayoría de los usuarios de Synthesia aprovechan esta tecnología para soluciones de bajo costo y tiempo, como videos de capacitación de recursos humanos. Sin embargo, los expertos de Graphika advierten que la tecnología está mejorando y, de no ser regulada, pronto podría presentarse desinformación en video que será mucho menos distinguible de las filmaciones reales. Es cierto que los productos de Synthesia no son de alta calidad: los avatares hablan de forma monótona, tienen expresiones faciales forzadas, audio retrasado y movimientos poco realistas; además, en sus estatutos la compañía prohíbe crear “contenido político, sexual, personal, criminal y discriminatorio” –de hecho, cuenta con un departamento de cuatro personas encargadas de supervisar las violaciones de contenido deepfake de los clientes–, no obstante, sigue siendo difícil detectar cuando se usa para difundir desinformación o propaganda. Es por eso que los expertos piden supervisar esta tecnología, ya que podría usarse para crear videos y fotos extremadamente convincentes. El mismo Victor Riparbelli, cofundador y CEO de Synthesia, conmina a los gobiernos a promulgar una legislación que regule la industria de medios sintéticos y deepfake. La buena noticia es que podemos combatir fuego con fuego. O en este caso IA con IA. Existen inteligencias artificiales diseñadas para detectar y detener la desinformación y la propagación de noticias falsas. Estas están entrenadas para realizar análisis del contenido, verificar el contexto y comprobar la fuente de la información para determinar su veracidad. También identifican cuentas de redes sociales automatizadas (bots) analizando patrones de comportamiento y características en línea. Algunos de los proyectos de verificación por IA que existen son Full Fact, Newsguard, Veracity.ai y AI Foundation. Lo difícil de ser auténtico Toda esta revolución en cuanto a los alcances de las IA ha generado debates sobre si serán o no capaces de lograr algo similar a la creatividad humana. Algunos críticos argumentan que están muy lejos de reemplazarnos como máximos creadores. En una tónica similar, otros las consideran valiosas herramientas para expandir el alcance y la capacidad de la creatividad, aunque es probable que, a medida que la tecnología avance, surjan nuevas discusiones sobre el papel de la IA en el arte y el ingenio. Pero la controversia sobre las nuevas tecnologías de creación artística no una novedad. En el pasado, algunos se opusieron a la invención de la cámara fotográfica, alegando que denigraba la habilidad artística humana. En el siglo XX, las herramientas digitales de edición y los programas de diseño también fueron criticados por puristas porque supuestamente no requerían de habilidad. Lo que diferencia a las nuevas herramientas de IA es que no sólo son capaces de producir obras de arte hermosas con un mínimo esfuerzo, sino cómo trabajan. Por ejemplo, aplicaciones como DALL-E 2 y Midjourney se construyen mediante la búsqueda de millones de imágenes de la web abierta; luego se enseña a los algoritmos a reconocer patrones y relaciones en esas imágenes y generar nuevas en el mismo estilo. Esto significa que los artistas que suben sus obras a Internet pueden estar ayudando sin saberlo a entrenar a sus competidores algorítmicos. Pero tal como lo pueden ver las empresas de bancos de imágenes, el uso de su contenido sin pagar licencia por parte de la IA es un problema creciente. A tal grado que ya han considerado demandar judicialmente. Editores del periódico The Wall Street Journal, al enterarse de que CHATGPT ha utilizado su contenido para entrenarse y publicar artículos, anunciaron medidas similares. Quizá lo que detonó todo fue el caso del ganador del primer lugar en la categoría de arte digital/fotografía manipulada de la Feria de Bellas Artes de Colorado, Estados Unidos. El artista digital Jason M. Allen creó su obra premiada con el generador de imágenes de IA Midjourney. La imagen, que tal como su título indica representa un escenario de ciencia ficción de corte épico, fue una de las tres que presentó en la competencia. Tras conocerse el mecanismo para producirla, la reacción del público fue dividida. Otro caso fue el de una imagen generada por algoritmos de IA que consiguió engañar al jurado de un concurso fotográfico organizado por la tienda australiana Digidirect. La imagen ganadora del primer premio muestra a un par de surfistas adentrándose en el mar al amanecer. Aunque es completamente generada por la IA, parece tan real como muchas de las fotos con excesiva edición que se ven en redes sociales. El estudio Absolutely AI, responsable de la creación de la ilustración, confesó que su objetivo era demostrar que este tipo de imágenes pueden pasar inadvertidas incluso para un jurado especializado y que es hora de abordar seriamente el impacto de la IA en la industria creativa. Puede que una imagen de este tipo no hubiera pasado el control de calidad de un concurso fotográfico con mayor renombre (además, la imagen no creó humanos, animales u otros objetos que requieren de mayor precisión); sin embargo, es muy probable que sigan dándose este tipo de situaciones. Como se ve, las herramientas de IA se han convertido en un fructífero campo que apenas estamos comenzando a aprender a usar. Y aunque podemos estar bastante confiados en que no detonarán el fin de la humanidad como la conocemos, seguro cambiarán nuestra vida.
es-mx