

GPT-5 es algo mejor que GPT-4. El problema de esta expresión se encuentra en la palabra «algo». El nuevo modelo «uniforme» de OpenAai no parece representar el salto cualitativo que muchos esperaban, y las alarmas sonaron nuevamente. ¿Podría preguntar qué si la IA no será mucho mejor que ahora? Pero tal vez eso sucede y la pregunta es diferente: ¿qué hacemos?
La subida funciona, pero menos. En 2020, un equipo de investigadores de Operai publicados Un estudio Con el título «Escalada para modelos de lenguaje neuronal». En él, ha planteado una especie de Ley de AI de Moore: cuantos más datos y computadoras que dedique a los modelos de capacitación, mejor será. Esta observación se demostró claramente cuando comenzaron GPT-3, que era 10 veces más grande que GPT-2, pero mucho mejor que este modelo.
demora. Gary Marcus, profesor de psicología y ciencias neuronales en la Universidad de Nueva York, Explicado en 2022 Que este estudio no tuviera mucho sentido: «Las leyes de abogados que llaman así no son leyes universales como la gravedad, sino solo meras observaciones que no podrían mantenerse para siempre». Incluso Satya Nadella acordado Con esta declaración hace unos meses en el evento Ignite 2024. Y como vemos, sus dudas se han hecho realidad. La escalada funciona y los modelos son ligeramente mejores que sus predecesores, pero el retraso parece estar allí.
Pero GPT-5 no es tan malo. La verdad es que GPT-5 ha mejorado en métricas relevantes. Aquellos que son responsables de la época AI Ellos calificaron Su comportamiento en FrontiermathPor ejemplo. Los resultados fueron ligeramente mejores que su mini predecesor O4, pero no hubo grandes resultados. Sin embargo, enfatizaron que GPT-5 fue el primer modelo que resuelve un problema específico como si «el problema se entendiera completamente».
Y piensa mejor. Otro análisis independiente del ZVI -MowShowitz -Analyst Señaló Aunque el modelo GPT-5-BASIS fue sin más correcto, sus variantes avanzadas (pensamiento GPT-5 Pro y GPT-5) fueron una mejora significativa en comparación con O3-Pro y O3, especialmente en caso de alivio de las alucinaciones. Según sus datos, «GPT-5 Auto» (la versión básica) parece ser un mal producto a menos que use el plan Chatt gratuito.
Lo mismo que necesitamos es una IA simbólica. El simbólico («clásico»)) representa el conocimiento utilizando símbolos y reglas y se basa en la lógica y el argumento formal para resolver problemas y tomar decisiones. Este tipo de tipo de panorama IA dominó hasta 90, pero la falta de progreso notable hizo que la disciplina estuviera estancada y vivió un invierno de la IA. «Vamos» con el Connectionist, las redes neuronales, que son conocimiento de las conexiones y pesos de los nodos de una red de neuronas artificiales. Esta disciplina fue la que causó la IA generativa y el éxito abrumador de ChatGPT y sus rivales. Su buen comportamiento sorprendente desencadenó la fiebre actual de IA, pero los avances del rendimiento se ralentizan.
Los escépticos de la IA duplican su discurso. Analistas como Ed Zitron – Extreme – o Gary Marcus, la IA simbólica, siempre han advertido de las expectativas exageradas creadas por la IA generativa. Incluso aquellos que estuvieron significativamente involucrados en la creación de ChatGPT, como: B. El ingeniero Ilya Sutskever advirtió sobre las restricciones de escala. Los modelos de argumento han despertado las críticas y son una gran alternativa para este obvio estancamiento de los modelos estándar, pero incluso con ellos la sensación es que la IA no irá mucho más lejos.
Entonces nunca llegaremos a un agi. Thomas Wolf, co -finger y director científico de Sugiring Face, reflexionó sobre el problema hace unos meses y llegó a la conclusión de que el IAS «se convirtió en un país de hombres que dicen al servidor». Para él, las cosas comenzaron a molestar:
«Para crear un Einstein en un centro de datos, no necesitamos un sistema que tenga todas las respuestas, pero que pueda preguntar cosas que nadie había pensado o que nadie se había atrevido a preguntar».
Como enfatizó este experto, la IA actual (normalmente) no crea un nuevo conocimiento y «simplemente llena los agujeros de lo que la gente ya sabía». La IA actual es como un estudiante fantástico y muy aplicado, pero este estudiante no desafía lo que se ha enseñado. Está fuera de discusión y no sugiere ideas que violen los datos con los que fue entrenado. Yann Lecun, uno de los pioneros de la IA, ya ha concluido con el actual generativo -ki: es una tontería.
Expectativas más bajas. El panorama está preocupado por aquellos que invierten miles de millones de dólares en centros de datos o capacitan nuevas razones, especialmente porque estos efectos pueden no ser tan gigantescos como lo habían predicho y prometido. Ed Citron especificado En los neoyorquinos que «este es un mercado de $ 50,000 millones, no uno de los mil millones de dólares». Marcus estuvo de acuerdo. «50,000 millones, sí. Tal vez 100,000».
¿Qué sucede cuando la IA se ha estancado?. Si es efectivo, podemos esperar que la IA se convierta en un instrumento útil para ahorrar tiempo y mejorar el resultado de ciertas tareas, lo hace, pero no causar y causar estos efectos sísmicos en la sociedad y la sociedad. empleo Qué personalidades como Altman, Musk, Amodei o Zuckerberg defienden sus inversiones. En este caso, sin duda tendremos una herramienta poderosa para mejorar las cosas y más rápido. Esto es exactamente lo que nos hizo otros trastornos fantásticos, como la PC o Internet.
Pero muchos esperaban más. Mucho más. Y ahí está el problema. En expectativas.
Imagen | Fotografía de Levart
En | Hay demasiados modelos de IA. Esto aumenta una verdadera sentencia de muerte por antrópico y Claude