Sam Altman vs. The New York Times: La batalla por el futuro de la IA

Por Álvaro G. Palacio

¡Madre mía, qué noche la de Sam Altman! El CEO de OpenAI, acompañado de Brad Lightcap (su jefe de operaciones, ojo), se plantaron en un evento con Kevin Roose y Casey Newton del podcast «Hard Fork» y… ¡la que se lió, pollito!

Desde el minuto uno, se notaba que la cosa no iba a ser un paseo por las nubes. Altman, ni corto ni perezoso, se puso a hablar de la demanda del New York Times contra OpenAI y Microsoft. Sí, esa en la que el periódico les acusa de usar sus artículos para entrenar modelos de lenguaje sin permiso. Vamos, ¡un salseo de los buenos!

NYT vs. OpenAI: La guerra por los derechos de autor en la era de la IA

La movida es que el New York Times está que trina porque, según ellos, OpenAI ha utilizado sus contenidos sin pagar, lo que podría devaluar su trabajo y hasta reemplazarlos. ¡Imagínate la que se viene encima!

Altman estaba especialmente mosqueado por una petición reciente del NYT: que OpenAI conserve los datos de los usuarios de ChatGPT y su API, ¡incluso si están chateando en modo privado o han pedido que se borren!

«El New York Times, una institución de toda la vida, está defendiendo que debemos conservar los registros de nuestros usuarios, aunque estén en modo privado o hayan pedido que los borremos», se quejó Altman. «Seguimos queriendo al New York Times, pero en esto no estamos de acuerdo».

Vamos, que la cosa está tensa. Y ojo, que esto no es solo cosa del NYT. Hay otras editoriales que han demandado a OpenAI, Anthropic, Google y Meta por lo mismo: usar obras protegidas por derechos de autor para entrenar sus modelos de IA. ¡Aquí nadie se libra!

¿Se le está dando la vuelta a la tortilla?

Pero ojo al dato, que parece que las tornas podrían estar cambiando. Hace poco, Anthropic, competidor de OpenAI, ganó un juicio contra unas editoriales. Un juez federal dictaminó que el uso de libros para entrenar sus modelos de IA era legal en algunas circunstancias. ¡Esto podría tener consecuencias importantes para las demandas contra OpenAI, Google y Meta!

¿Será por eso que Altman y Lightcap se sentían tan seguros en la entrevista? No lo sabemos, pero lo que sí sabemos es que OpenAI tiene frentes abiertos por todos lados.

Meta y la caza de talentos: ¿Quién da más?

Y hablando de frentes abiertos, ¡agárrate que vienen curvas! Mark Zuckerberg, ni corto ni perezoso, ha estado intentando fichar a los mejores talentos de OpenAI, ¡ofreciéndoles paquetes de compensación de 100 millones de dólares! ¡Casi nada!

Cuando le preguntaron si Zuckerberg realmente cree en los sistemas de IA superinteligentes, o si es solo una estrategia de reclutamiento, Lightcap soltó: «Creo que él [Zuckerberg] cree que es superinteligente». ¡Toma zasca!

Microsoft y OpenAI: ¿Amigos o enemigos?

Otro tema candente es la relación entre OpenAI y Microsoft. Parece que la cosa se está poniendo tensa, con negociaciones para un nuevo contrato que no terminan de llegar a buen puerto. Microsoft, que en su momento fue un gran apoyo para OpenAI, ahora compite con ellos en software empresarial y otros campos. ¡La pela es la pela!

«En cualquier asociación profunda, hay puntos de tensión y ciertamente los tenemos», reconoció Altman. «Somos empresas ambiciosas, así que encontramos algunos puntos conflictivos, pero espero que sigamos encontrando valor en esta relación durante mucho tiempo».

El lado oscuro de la IA: Conspiraciones y salud mental

Pero no todo son demandas y fichajes millonarios. También hay que hablar de los problemas que puede generar la IA. En la entrevista, le preguntaron a Altman sobre los casos de personas con problemas mentales que están utilizando ChatGPT para meterse en teorías de la conspiración o hablar sobre suicidio. ¡Ojo, que esto es serio!

Altman dijo que OpenAI está tomando medidas para evitar estas conversaciones, como cortarlas de raíz o dirigir a los usuarios a servicios profesionales donde puedan obtener ayuda.

«No queremos cometer los errores que cometió la anterior generación de empresas tecnológicas al no reaccionar lo suficientemente rápido», dijo Altman. «Sin embargo, todavía no hemos descubierto cómo hacer llegar una advertencia a los usuarios que están en un estado mental frágil, al borde de un brote psicótico».

Vamos, que la cosa no es fácil. La IA tiene un potencial enorme, pero también hay que tener cuidado con los riesgos que puede entrañar.

En resumen: OpenAI, en el ojo del huracán

En definitiva, la entrevista de Sam Altman y Brad Lightcap en «Hard Fork» fue de todo menos aburrida. Demandas, competidores, fichajes millonarios, problemas de salud mental… OpenAI está en el ojo del huracán. Tendremos que estar atentos para ver cómo se desarrolla todo esto. ¡La era de la IA promete emociones fuertes!

Profundizando en la Demanda del New York Times

La demanda del New York Times es un tema central en todo este embrollo. Para entender mejor la magnitud del asunto, es crucial analizar los argumentos del periódico y la respuesta de OpenAI.

El NYT argumenta que OpenAI ha infringido sus derechos de autor al utilizar sus artículos para entrenar modelos de lenguaje como GPT-4. Según el periódico, OpenAI ha «copiado y utilizado ilegalmente» millones de artículos del NYT sin permiso ni compensación.

El periódico sostiene que estos modelos de lenguaje compiten directamente con sus productos y servicios, ya que pueden generar textos similares a los de sus periodistas. Además, alegan que la calidad de la información proporcionada por estos modelos puede verse comprometida al depender de fuentes no autorizadas y potencialmente sesgadas.

OpenAI, por su parte, niega rotundamente las acusaciones del NYT. Argumentan que el uso de contenido disponible públicamente en la web para entrenar modelos de lenguaje es una práctica común y necesaria para el desarrollo de la IA.

Además, OpenAI afirma que sus modelos de lenguaje no replican el contenido del NYT de manera literal, sino que aprenden patrones y estructuras lingüísticas que les permiten generar textos originales. En este sentido, argumentan que su actividad se enmarca dentro del «uso justo» (fair use) de la ley de derechos de autor.

La respuesta de Altman en la entrevista, en la que critica la solicitud del NYT de conservar los datos de los usuarios, sugiere que OpenAI considera que el periódico está adoptando una postura excesivamente proteccionista y contraria a la innovación en el campo de la IA.

El Impacto de la Sentencia a Favor de Anthropic

La reciente sentencia a favor de Anthropic podría marcar un antes y un después en la batalla legal entre las editoriales y las empresas de IA. Aunque el caso se centra en Anthropic, la decisión del juez podría sentar un precedente importante para otras demandas similares, incluida la del NYT contra OpenAI.

El juez dictaminó que el uso de libros para entrenar modelos de IA puede considerarse «uso justo» en determinadas circunstancias. En particular, el juez señaló que el uso de libros para entrenar modelos de IA que generan textos originales y transformadores podría estar protegido por la ley de derechos de autor.

Esta decisión podría debilitar la posición del NYT y otras editoriales que argumentan que el uso de sus contenidos para entrenar modelos de IA constituye una infracción de sus derechos de autor. Si los tribunales adoptan una interpretación amplia del «uso justo», las empresas de IA podrían tener mayor libertad para utilizar contenido disponible públicamente en la web sin temor a ser demandadas.

La Fuga de Talentos y la Competencia con Meta

La competencia por el talento en el campo de la IA es feroz. Empresas como OpenAI, Meta, Google y Amazon están invirtiendo grandes sumas de dinero para atraer a los mejores ingenieros, investigadores y científicos de datos.

La revelación de Altman sobre los intentos de Meta de fichar a empleados de OpenAI con ofertas de 100 millones de dólares pone de manifiesto la intensidad de esta competencia. Meta, bajo la dirección de Mark Zuckerberg, está apostando fuerte por la IA y necesita talento para desarrollar sus propios modelos de lenguaje y otras aplicaciones de IA.

La fuga de talento podría ser un problema grave para OpenAI, ya que podría ralentizar su capacidad para innovar y desarrollar nuevos productos. Para retener a sus empleados clave, OpenAI tendrá que ofrecer salarios competitivos, oportunidades de crecimiento profesional y un ambiente de trabajo estimulante.

La Relación Estratégica con Microsoft: ¿Un Matrimonio en Crisis?

La relación entre OpenAI y Microsoft ha sido fundamental para el éxito de ambas empresas. Microsoft ha invertido miles de millones de dólares en OpenAI y ha integrado sus modelos de lenguaje en sus productos y servicios, como Bing y Azure.

Sin embargo, como señaló Altman en la entrevista, la relación entre OpenAI y Microsoft no está exenta de tensiones. A medida que ambas empresas crecen y expanden sus actividades, es inevitable que surjan conflictos de intereses.

Por ejemplo, OpenAI y Microsoft compiten en el mercado de software empresarial, donde ambas empresas ofrecen herramientas y plataformas basadas en IA. Esta competencia podría generar fricciones y poner en peligro la relación estratégica entre ambas empresas.

La negociación de un nuevo contrato entre OpenAI y Microsoft es un momento crucial para ambas empresas. Si no logran llegar a un acuerdo que satisfaga a ambas partes, la relación podría deteriorarse y poner en peligro el futuro de OpenAI.

Los Dilemas Éticos de la IA: Salud Mental y Desinformación

La IA tiene un gran potencial para mejorar la vida de las personas, pero también plantea importantes dilemas éticos. Uno de los mayores desafíos es garantizar que la IA se utilice de manera responsable y que no cause daño a la sociedad.

Como señaló Altman en la entrevista, OpenAI está preocupada por el uso de ChatGPT para fines perjudiciales, como la difusión de teorías de la conspiración o el fomento del suicidio. OpenAI está tomando medidas para evitar estos usos indebidos, pero reconoce que aún no ha encontrado una solución perfecta.

La IA también puede utilizarse para generar desinformación y noticias falsas, lo que podría tener graves consecuencias para la democracia y la estabilidad social. Las empresas de IA tienen la responsabilidad de desarrollar herramientas y técnicas para detectar y combatir la desinformación generada por la IA.

El Futuro de OpenAI: Innovación, Responsabilidad y Competencia

El futuro de OpenAI es incierto. La empresa se enfrenta a numerosos desafíos, como la competencia de otras empresas de IA, las demandas de las editoriales, la fuga de talentos, los dilemas éticos y la necesidad de mantener una relación estratégica con Microsoft.

Para tener éxito a largo plazo, OpenAI tendrá que seguir innovando, desarrollando productos y servicios que sean útiles y valiosos para la sociedad. También tendrá que actuar de manera responsable, garantizando que sus modelos de IA se utilicen de manera ética y que no causen daño a la sociedad.

Además, OpenAI tendrá que ser capaz de competir con otras empresas de IA, como Google, Meta y Amazon. Para ello, tendrá que atraer y retener a los mejores talentos, invertir en investigación y desarrollo y establecer alianzas estratégicas con otras empresas.

En resumen, el futuro de OpenAI dependerá de su capacidad para superar los desafíos que enfrenta y de su compromiso con la innovación, la responsabilidad y la competencia. La era de la IA está en sus primeras etapas, y OpenAI tiene el potencial de desempeñar un papel importante en la configuración del futuro de esta tecnología.

La Importancia de la Regulación de la IA

A medida que la IA se vuelve más poderosa y omnipresente, la necesidad de una regulación adecuada se vuelve cada vez más urgente. La regulación de la IA podría ayudar a garantizar que se utilice de manera responsable y que no cause daño a la sociedad.

La regulación de la IA podría abordar una amplia gama de cuestiones, como la privacidad de los datos, la seguridad, la transparencia, la rendición de cuentas y la discriminación. También podría establecer normas y estándares para el desarrollo y el uso de la IA.

Sin embargo, la regulación de la IA es un tema complejo y controvertido. Algunos argumentan que la regulación podría sofocar la innovación y obstaculizar el desarrollo de la IA. Otros argumentan que la regulación es necesaria para proteger a la sociedad de los riesgos potenciales de la IA.

Encontrar el equilibrio adecuado entre la innovación y la regulación será fundamental para garantizar que la IA se utilice de manera beneficiosa para la sociedad. Los gobiernos, las empresas y la sociedad civil deben trabajar juntos para desarrollar un marco regulatorio que promueva la innovación responsable y proteja a la sociedad de los riesgos potenciales de la IA.

El Papel de la Educación en la Era de la IA

La IA está transformando el mundo que nos rodea, y es fundamental que las personas estén preparadas para vivir y trabajar en la era de la IA. La educación juega un papel fundamental en la preparación de las personas para la era de la IA.

La educación debe proporcionar a las personas las habilidades y los conocimientos necesarios para comprender y utilizar la IA de manera efectiva. Esto incluye habilidades como el pensamiento crítico, la resolución de problemas, la creatividad, la colaboración y la comunicación.

Además, la educación debe fomentar la alfabetización digital y la comprensión de los conceptos básicos de la IA. Las personas deben ser capaces de comprender cómo funciona la IA, cómo se utiliza y cuáles son sus posibles implicaciones.

La educación también debe abordar los dilemas éticos relacionados con la IA y fomentar la responsabilidad y el uso ético de la IA. Las personas deben ser conscientes de los riesgos potenciales de la IA y deben ser capaces de tomar decisiones informadas sobre su uso.

En resumen, la educación es fundamental para preparar a las personas para la era de la IA. La educación debe proporcionar a las personas las habilidades, los conocimientos y los valores necesarios para comprender, utilizar y regular la IA de manera efectiva y responsable.

Conclusión: Un Futuro Incierto pero Lleno de Posibilidades

El futuro de la IA es incierto, pero está lleno de posibilidades. La IA tiene el potencial de transformar la sociedad de maneras profundas, mejorando la vida de las personas y resolviendo algunos de los problemas más acuciantes del mundo.

Sin embargo, la IA también plantea importantes desafíos. Para aprovechar al máximo el potencial de la IA y minimizar sus riesgos, es fundamental que se desarrolle y se utilice de manera responsable y ética.

Las empresas de IA, los gobiernos, la sociedad civil y los individuos deben trabajar juntos para garantizar que la IA se utilice de manera beneficiosa para la sociedad. La innovación, la regulación, la educación y la colaboración serán fundamentales para construir un futuro en el que la IA contribuya al bienestar de todos.

Y mientras tanto, seguiremos atentos a las idas y venidas de Sam Altman y OpenAI, que sin duda seguirán dando que hablar en los próximos meses. ¡Esto no ha hecho más que empezar!

Comparte este artículo

Artículos Relacionados

Imagen para el artículo: El consumo energético de los centros de datos de Google se duplica en 4 años

El consumo energético de los centros de datos de Google se duplica en 4 años

¡Madre mía, Google y la energía! ¿Se les está yendo la mano? A ver, agárrate que vienen curvas. Resulta que Google ha pu...

Álvaro G. Palacio
Imagen para el artículo: Automattic pausa migración de Tumblr a WordPress: ¿Qué significa?

Automattic pausa migración de Tumblr a WordPress: ¿Qué significa?

En fin, la hipoteca… Automattic, la empresa detrás de WordPress, ha decidido pausar, o mejor dicho, aparcar indefinidame...

Álvaro G. Palacio
Imagen para el artículo: Kleida Martiro en TechCrunch All Stage: Claves para Financiar tu Startup de IA

Kleida Martiro en TechCrunch All Stage: Claves para Financiar tu Startup de IA

¡Ojo, fundadores AI! ¿Buscas financiación? No te pierdas TechCrunch All Stage 2025 Si estás metido hasta el cuello en el...

Álvaro G. Palacio