Más allá de GPT-4o: qué es lo que se viene para la IA según los líderes tecnológicos​

La inteligencia artificial avanza a un ritmo vertiginoso, superando límites que hasta hace poco parecían inimaginables. Desde los modelos conversacionales como GPT-4 hasta aplicaciones revolucionarias en salud, ciencia, producción entre múltiples ámbitos de acción, la IA se perfila como una de las fuerzas transformadoras más influyentes del siglo XXI.

En paralelo, la tendencia señala que la utilización masiva de la inteligencia artificial generativa (GenIA) está impactando en las experiencias digitales de la sociedad de manera ambigua. Las personas valoran la conveniencia de muchas de las herramientas pero a la vez, cuestionan cada vez más lo que ven y escuchan en virtud de un mundo donde mucho de lo que rodea puede ser falso, engañoso o “editado por IA”.

¿Cuál será el futuro de esta tecnología? Sus alcances parecen no tener límites y plantean dilemas de toda índole a su paso. Aunque no hay un consenso absoluto respecto de lo que viene, los grandes referentes tecnológicos hacen sus apuestas, pronostican escenarios y analizan posibilidades para la IA que aún son solo teóricas. Asimismo, subrayan el papel crucial que jugarán la ética, la regulación y la colaboración global en moldear su impacto.

Sam Altman

La visión de Sam Altman, director ejecutivo de OpenAI (compañía creadora de ChatGPT) respecto del futuro de la IA es la de una Inteligencia General Artificial (AGI, por sus siglas en inglés) que sea capaz de realizar cualquier tarea cognitiva que un ser humano pueda hacer, pero con mayor eficiencia. Este enfoque implica superar los modelos actuales basados en tareas específicas y avanzar hacia sistemas más flexibles e inteligentes que revolucionarán la forma de vivir y trabajar, porque serían capaces de tomar decisiones y completar tareas con menos participación humana.

En el marco del OpenAI Dev Day, celebrado algunas semanas atrás en San Francisco, Altman se refirió al nuevo modelo de la compañía, OpenAI o1, que esperan lanzar en 2025 y el cual se inscribe dentro de esa visión. Según expresó, el modelo iría “más allá de responder preguntas” para evolucionar a capacidad de razonamiento y acciones cada vez más autónomas, de mayor complejidad y prescindiendo de participación y/o supervisión humana constante.

En palabras de Altman, si o1 se trata de una IA de “Nivel 2″ ( a la par aún de modelos previos como GPT-3 o 4) el verdadero salto cuantitativo vendría de la mano de la IA de “Nivel 3″ con asistentes en rol de colaboradores, con habilidad de resolver tareas completamente por sí mismos y hasta proactivamente. Este cambio -según describió- “podría transformar industrias enteras” con acento en la salud, la industria farmacéutica, la investigación médica, los desarrollos científicos y la educación.

En el marco del evento, Altman también expresó su preocupación por el hecho de que los modelos de IA se vuelvan tan avanzados que puedan engañar a los usuarios: “A medida que la IA se parezca más a la humana, será más difícil distinguir una máquina de una persona, lo que difuminará las líneas en las interacciones cotidianas”, puntualizó; Altman fundó Tools for Humanity, la compañía detrás de la plataforma World y la moneda worldcoin, justamente para encontrar un sistema que permite, en un entorno digital, saber cuándo estamos hablando con una persona y cuándo con una IA.

Mustafa Suleyman

El investigador con foco en IA, cofundador de Deepmind (empresa vendida a Google) y a cargo de la unidad de negocio de Microsoft enfocada en el desarrollo de IA para los consumidores, Microsoft IA, desarrolla una teoría sobre el futuro de la IA en su libro La ola que viene. Allí Suleyman propone un test de Turing moderno. ¿por qué? Básicamente porque cree que la prueba original de Turing ya se cumplió con el lanzamiento de GPT- 3. Según la idea original de Turing, una computadora se podría considerar “inteligente” si fuera capaz de replicar convincente y efectivamente el lenguaje de manera que un humano no la distinga de una persona, situación que a su modo de ver ya ocurre con los asistentes con IA generativa.

¿Qué viene entonces para el futuro? Lo que Suleyman indaga no es lo que una IA pueda decir, sino “lo que pueda hacer y generar como efecto en el mundo”. La prueba de Turing moderna implica para él “superar un modelo de entrada y respuesta” al modo que funcionan los sistemas actuales de GPT-4. Como ejemplo pone una instrucción determinada para el modelo: “Ganá 1 millón de dólares en una plataforma web minorista en unos meses con sólo una inversión de 100.000 dólares”. En ese caso –dice en una columna para el MIT Technology Review– la IA “necesitaría investigar y diseñar productos, interactuar con fabricantes y centros logísticos, negociar contratos, crear y operar campañas de marketing. En resumen, necesitaría unir una serie de objetivos complejos del mundo real con una supervisión y acción humanas mínimas”.

Para Suleyman -quien también desarrolló esta idea en un debate con Yuval Noah Harari– “estamos a un par de años que esto ocurra”, aún hay sistemas que tienen que evolucionar y APIs a desarrollar para que estos grandes modelos puedan funcionar e interconectarse. Lo más importante para él está en el desafío técnico de la llamada “planificación jerárquica” con múltiples objetivos, subobjetivos, tiempos y capacidades en “un proceso fluido”, que exige bases de datos precisas y actualizadas en variedad de industrias y ámbitos de acción que no están exentos de dilemas éticos y problemas de seguridad.

¿Qué pasaría una vez que se logre una IA de esta naturaleza? Para Suleyman se podría conectar una empresa u organización y la IA sería capaz de vender, fabricar, contratar, planificar tan solo con un pequeño equipo de gerentes humanos para supervisar, verificar e implementar. Aquí aparecen los cuestionamientos. “Este es el punto en el que la IA pasa de ser útil, pero opcional, a ser el centro de la economía mundial. Aquí es donde realmente comienzan a sentirse los riesgos de la automatización y el desplazamiento de puestos de trabajo. Desde lo trivial y cotidiano (organizar una fiesta de cumpleaños) hasta lo tremendamente ambicioso (ganar una elección)”, puntualiza. A sistemas como estos los bautiza “Inteligencia Artificial Capaz” o ACI (por sus siglas en inglés).

Sundar Pichai

Para el CEO de Google, el futuro de la IA se relaciona con ciertos pilares que fueron parte del discurso de apertura que brindó en la primera “Cumbre del Futuro” que tuvo lugar en el marco de la 79ª Asamblea General de las Naciones Unidas (AGNU) en septiembre pasado.

Según expresó, en el futuro la IA va a “ayudar a las personas a acceder a la información y el conocimiento del mundo en su propio idioma”. Como ejemplo puso el objetivo de que Google Translate llegue a 1000 de los idiomas más hablados del mundo, siendo que hoy contempla solo 246. El segundo ámbito de acción es la aceleración de la ciencia a través de AlphaFold, el programa con IA de DeepMind/ Alphabet que predice la estructura de las proteínas con un alto grado de precisión y es ampliamente utilizado por investigadores y científicos. El futuro de AlphaFold apunta a ampliar su alcance a más científicos e investigadores en países emergentes y trabajar en investigaciones como cultivos más resistentes a las enfermedades, nuevos fármacos en áreas como vacunas contra la malaria y tratamientos contra el cáncer, entre otros.

La tercera posibilidad que abre el futuro de la IA es continuar y profundizar la prevención de desastres climáticos donde se pueda proporcionar alertas tempranas a las personas involucradas. La idea es que IA aumente la precisión, la velocidad y la escala de todas las herramientas que la compañía tiene para ellos como Flood Hub (para prevención de las inundaciones) y FireSat e funcionalidades especiales en Google Maps en el caso de la prevención de incendios.

Una visión que Pichai enfatiza tiene que ver con el futuro y las brechas de acceso tecnológico. “Con la IA, tenemos la oportunidad de ser inclusivos desde el principio y garantizar que la brecha digital no se convierta en una brecha de IA”, sentencia. Para él se trata de un desafío que debe ser enfrentado por el trabajo conjunto del sector privado y el sector público, inversión en infraestructura digital, en habilidades digitales de las personas y con un entorno político que lo propicie.

Satya Nadella

Más allá de Copilot -la plataforma de Microsoft que integra IA para diversidad de tareas que mejoran la productividad en entornos laborales y personales- el CEO de Microsoft cree que en un tiempo no tan lejano “crear un agente con IA será tan accesible como crear una hoja de cálculo en Excel”, según declaró en el marco del Microsoft AI Tour London pocas semanas atrás. Estos agentes serán una suerte de nuevas “apps” que cualquier persona podría desarrollar tan solo con conectarse a Internet.

Asimismo, Nadella ve en la ciencia los casos de impacto más profundo de IA, tanto para cura de enfermedades como en la transición para abandonar los combustibles fósiles, básicamente porque que los científicos tendrán acceso al análisis de enormes cantidades de datos, que les permitirá identificar patrones complejos y realizar simulaciones a una velocidad y escala antes imposibles. La IA además podrá democratizar el acceso a las herramientas científicas, permitiendo a más investigadores y organizaciones de todo el mundo contribuir al progreso global, independientemente de sus recursos.

En una charla con el CEO del World Economic Forum -Klaus Schwab- en el marco de la reunión anual en Davos de la entidad a principios de este año, Nadella subrayó la necesidad de “tomar las consecuencias no deseadas de cualquier nueva tecnología junto con todos sus beneficios, y pensar en ellas simultáneamente en lugar de esperar a que aparezcan las consecuencias no deseadas y entonces abordarlas”. Para él, el futuro de la IA implica “ser proactivo en la gestión del riesgo”, también en términos de una regulación y admitió que “la mayor lección de la historia es no estar tan asombrados por alguna tecnología que sintamos que no podemos controlarla y que no podemos usarla para el mejoramiento de nuestra gente”.

Elon Musk

El multimillonario detrás de SpaceX, Neurolink, Tesla, y dueño de la red social X suele realizar vaticinios en relación al futuro de la IA marcados por la dualidad de una promesa de “aumentar las capacidades humanas” y a la vez una amenaza existencial constante.

En varias oportunidades, una de las más recientes fue la octava edición de la Iniciativa de Inversión Futura (FII) realizado en Riad, Musk sugirió que para 2030, la IA podría “rivalizar con las capacidades cognitivas de toda la raza humana”. Para él, eventualmente la IA podría “ser tan ubicua que la inteligencia biológica humana represente menos del 1%”, según cita Euronews respecto de su participación en la 27ª Conferencia Global anual organizada por el Instituto Milken.

En su visión, donde la IA sería capaz de realizar prácticamente cualquier tarea humana, Musk estima una probabilidad del 90% de impacto positivo, pero 10% de chance de daños colaterales no esperados siendo una “amenaza existencial significativa” al no estar lo suficientemente en sintonía con principios como la búsqueda de la verdad y genuino bienestar humano y sí con prioridades políticas y filosofías “oportunistas” como la de Silicon Valley. ¿La solución de Musk? Una IA “enamorada de la humanidad” centrada en los intereses de las personas, un espíritu que guió la creación de su más reciente empresa, xAI, desde la cual busca el avance científico y una comprensión “más profunda del universo”.

Entre otra de las predicciones realizadas en la FII, Musk se refirió al crecimiento sin precedentes de la demanda energética que viene de la mano de la IA, el cual “superará las capacidades de infraestructura actuales”, un problema que según estima se solucionaría con mayor utilización de energía solar. Además, comentó que el futuro de las naciones a nivel infraestructura son clusters de IA que tendrán la misma centralidad que el resto de los servicios públicos pero con el objetivo de proporcionar a los países capacidades autónomas respecto de esta tecnología..

​ Cuál es la visión de Sam Altman (CEO de OpenAI, Mustafa Suleyman (de Microsoft), Sundar Pichai (CEO de Google), Satya Nadella (CEO de Microsoft) y Elon Musk sobre los próximos pasos en el mundo de la inteligencia artificial  Tecnología 

Leave a Comment

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *