(La información es de Gizmodo)
Después del impactante OpenAI de la semana pasada lucha por el poder, hubo una revelación final que actuó como una especie de epílogo del desastre en expansión: un informe de Reuters que reveló un avance supuestamente sorprendente en la startup. Ese avance supuestamente ocurrió a través de un programa poco conocido llamado “Q-Star” o “Q*.”
Según el informe, una de las cosas que pudo haber iniciado el conflicto interno en la influyente empresa de IA fue este Q relacionado “descubrimiento”. Antes del derrocamiento de Altman, varios miembros del personal de OpenAI supuestamente escribieron a la junta directiva de la empresa sobre un “poderoso descubrimiento de inteligencia artificial que dijo podría amenazar a la humanidad”. Esta carta fue “un factor entre una lista más larga de quejas de la junta que condujeron al despido de Altman”, Reuters afirmó, citando fuentes anónimas.
Francamente, la historia sonaba bastante loca. ¿Qué era este nuevo y extraño programa y por qué supuestamente causó todo el caos en ¿OpenAI? Reuters afirmó que el programa Q* había logrado permitir que un agente de IA hiciera “matemáticas a nivel de escuela primaria”, un resultado sorprendente. avance tecnológico, de ser cierto, podría precipitar mayores éxitos en la creación de inteligencia general artificial, o AGI, dijeron fuentes. informe de The Information reiteró en gran medida muchos de los puntos expresados en el artículo de Reuters.
Aún así, los detalles que rodean este supuesto programa Q no han sido compartidos por la compañía, dejando solo los informes de fuentes anónimas y la especulación desenfrenada en línea. en cuanto a cuál podría ser la verdadera naturaleza del programa.
Algunos han especulado que el programa podría (debido a su nombre) tener algo que ver con Q-learning, una forma de aprendizaje automático. Entonces, sí, ¿qué es Q-learning y cómo podría aplicarse al programa secreto de OpenAI?
En general, hay un par de formas diferentes de enseñarle a un programa de IA a hacer algo. Una de ellas se conoce como “aprendizaje supervisado”, y funciona alimentando a agentes de IA grandes tramos de datos “etiquetados”, que luego se utiliza para entrenar el programa para que realice una función por sí mismo (normalmente esa función es más clasificación de datos). Se crearon grandes programas como ChatGPT, el robot generador de contenido de OpenAI. usando alguna forma de aprendizaje supervisado.
Mientras tanto, el aprendizaje no supervisado es una forma de aprendizaje automático en el que a los algoritmos de IA se les permite examinar grandes tramos de datos sin etiquetar, en un esfuerzo por para encontrar patrones para clasificar. Este tipo de inteligencia artificial se puede implementar para varios propósitos diferentes, como crear el tipo de sistemas de recomendación que compañías como Netflix y Spotify utilizan para sugerir nuevo contenido a los usuarios basado en sus elecciones de consumidores pasadas.
Finalmente, está el aprendizaje reforzado, o RL, que es una categoría de ML que incentiva un programa de IA para lograr una meta dentro de un programa específico. entorno. Q-learning es una subcategoría de aprendizaje reforzado. En RL, los investigadores tratan a los agentes de IA como a un perro al que intentando entrenar. Los programas son “recompensados» si toman ciertas acciones para afectar ciertos resultados y son penalizados si toman otras. En De esta manera, el programa está efectivamente “entrenado” para buscar el resultado más optimizado en una situación determinada. En Q-learning, el agente aparentemente funciona mediante prueba y error para encontrar la mejor manera de lograr una meta para la que ha sido programado.
¿Qué tiene que ver todo esto con el supuesto avance “matemático” de OpenAI? Se podría especular que el programa que logró (supuestamente) hacer Las operaciones matemáticas simples pueden haber llegado a esa habilidad a través de alguna forma de RL relacionado con Q. Dicho todo esto, muchos expertos son algo Escéptico en cuanto a si los programas de IA realmente pueden resolver problemas de matemáticas todavía. Otros parecen pensar que, incluso si una IA pudiera lograr tales metas, es no necesariamente se traduciría en avances más amplios en AGI.