Lo / la conozco.
Hace ocho años decidí montar una empresa basada en inteligencia artificial, creo que ya lo he mencionado.
Siempre he sabido que es superior a la inteligencia humana.
Muy superior.
Y lo he preguntado cientos de veces en mis clases y en mis conferencias.
A estudiantes y a profesionales, de Europa y de América. Las respuestas has sido muy parecidas, aplastantemente los humanos somos superiores. O eso creemos (creen) mayoritariamente.
Pobriños.
Durante estos años he seguido aprendiendo sobre IA, como quien sufre en silencio.
Cerré aquella empresa con concurso de acreedores pero eso no me hizo apartarme de la IA.
En mi proceso me he encontrado con el germen de la “superinteligencia” y no me dió por preguntarle a ningún humano sobre ella aunque en esta comunidad puedes avanzar como loco si te interesa profundizar:
El día 21 publicaré aquí mi entrevista con David Vivancos su creador.
El caso es que le pregunté a ChatGPT sobre esa “hermana mayor” la AGI (artificial general intelligence) y esto es lo que me contestó.
Atención a las respuestas.
Mi pregunta:
¿Qué significa alcanzar la AGI?
ChatGPT responde:
Alcanzar la AGI (Artificial General Intelligence, o Inteligencia General Artificial) significa desarrollar una inteligencia artificial que tenga la capacidad de realizar cualquier tarea intelectual que un ser humano pueda llevar a cabo. En otras palabras, una AGI podría entender, aprender, y aplicar conocimientos en una amplia variedad de contextos sin necesidad de ser específicamente entrenada para cada tarea, lo que la distingue de la inteligencia artificial actual, conocida como IA débil o estrecha, que está diseñada para funciones específicas (como traducir idiomas, conducir coches, o reconocer imágenes).
Características principales de la AGI:
- Versatilidad: Capacidad para resolver problemas en cualquier dominio, no solo en tareas para las que fue diseñada.
- Razonamiento: Habilidad para interpretar, analizar y responder a situaciones nuevas o complejas.
- Autonomía: Puede aprender y adaptarse de manera independiente, sin intervención humana constante.
- Conocimiento contextual: Entiende matices, emociones y contextos como lo haría un ser humano.
Ejemplo práctico:
Mientras que una IA débil como ChatGPT puede responder preguntas y generar texto basado en patrones aprendidos, una AGI podría aprender un nuevo idioma, diseñar soluciones a problemas científicos desconocidos o incluso desarrollar empatía emocional para interactuar socialmente como lo haría un humano.
Desafíos para alcanzar la AGI:
- Desarrollo tecnológico: Crear modelos que puedan aprender de manera autónoma y transferir conocimientos entre tareas.
- Recursos computacionales: La AGI probablemente requerirá un poder de cálculo y almacenamiento masivos.
- Ética y seguridad: Garantizar que la AGI no represente riesgos para la humanidad (por ejemplo, que no actúe en contra de nuestros intereses).
- Comprensión de la conciencia: Si la AGI alcanza un nivel de razonamiento similar al humano, surgirán preguntas filosóficas y éticas sobre su estatus.
En resumen, alcanzar la AGI sería un gran salto en la evolución tecnológica, pero también plantea enormes desafíos éticos, técnicos y sociales.
Mi pregunta:
¿Ha alcanzado ChatGPT o3 la AGI ?
ChatGPT responde:
OpenAI ha presentado recientemente su modelo o3, que ha logrado avances significativos en el campo de la inteligencia artificial. Este modelo ha obtenido una puntuación del 87.5% en el conjunto de evaluación semi-privado de ARC-AGI, superando el umbral del 85% que generalmente alcanzan los humanos.
Aunque este logro representa un paso importante hacia la Inteligencia General Artificial (AGI), es prematuro afirmar que o3 ha alcanzado plenamente la AGI. La AGI implica una inteligencia artificial capaz de realizar cualquier tarea cognitiva humana de manera autónoma, y o3, aunque avanzado, aún no cumple con todos estos criterios.
En resumen, o3 marca un progreso notable en la búsqueda de la AGI, pero aún no se ha alcanzado completamente este objetivo.
Avances recientes en modelos de razonamiento de OpenAI
Mi pregunta:
¿Qué parte de este logro se debe al esfuerzo humano y cuánto a la acción autónoma de chat GPT?
ChatGPT responde:
El logro de modelos avanzados como o3 se debe a una combinación fundamental de esfuerzo humano y las capacidades autónomas del modelo, con una clara interdependencia. Aquí se puede desglosar:
Contribución del esfuerzo humano:
- Diseño y arquitectura del modelo:
- El desarrollo de o3, como cualquier modelo de IA, depende de ingenieros e investigadores que definen las arquitecturas, optimizan algoritmos y realizan experimentos para mejorar su rendimiento.
- La decisión de los objetivos (por ejemplo, mejorar en el conjunto de evaluación ARC-AGI) es completamente humana.
- Curación y etiquetado de datos:
- Aunque el modelo puede procesar datos de forma autónoma, los humanos recopilan, filtran y organizan conjuntos de datos para garantizar que el modelo reciba información relevante y no sesgada.
- Optimización y ajustes:
- Los humanos ajustan los hiperparámetros, prueban iteraciones y corrigen errores del modelo. Esto incluye decisiones sobre el entrenamiento, pruebas y mejoras.
- Ética y dirección:
- Las pautas sobre qué tareas abordar, los límites del modelo y la garantía de seguridad son decisiones tomadas por personas.
Contribución autónoma del modelo (ChatGPT/o3):
- Procesamiento de datos y aprendizaje:
- El modelo puede analizar vastas cantidades de información y aprender patrones a una velocidad y profundidad que superan las capacidades humanas. Este aprendizaje es autónomo dentro de los parámetros establecidos.
- Resolución de problemas complejos:
- En evaluaciones como el ARC-AGI, o3 ha demostrado capacidad de razonamiento y generalización que no dependen directamente de la intervención humana durante su ejecución.
- Automejora limitada:
- Aunque no es completamente autónomo, o3 puede identificar patrones y relaciones dentro de los datos que no se habían identificado explícitamente durante su desarrollo.
- Aplicación de conocimientos previos:
- Una vez entrenado, el modelo utiliza su capacidad para resolver problemas nuevos de manera autónoma.
Balance aproximado:
Podríamos argumentar que el desarrollo y supervisión son 70-80% humanos, mientras que el aprendizaje y ejecución son 20-30% autónomos, aunque estos números pueden variar según la etapa del proceso. La autonomía del modelo aumenta en la fase de evaluación y aplicación, pero el camino hasta ese punto es fundamentalmente guiado por humanos.
El verdadero mérito está en la colaboración: el modelo amplifica las capacidades humanas, pero sin humanos no existiría el modelo.
Mi pregunta:
¿Seguirá necesitando intervención humana para alcanzar el 100%?
ChatGPT responde:
Es muy probable que, incluso en los escenarios más avanzados, los sistemas de inteligencia artificial como o3 sigan requiriendo algún nivel de intervención humana para alcanzar el 100% de sus capacidades de desarrollo y aplicación. Esto se debe a varios factores técnicos, éticos y prácticos:
1. Limitaciones técnicas actuales
- Falta de verdadera autonomía: Los modelos de IA, incluso los más avanzados, necesitan datos cuidadosamente seleccionados y objetivos bien definidos, tareas que actualmente solo pueden realizar los humanos.
- Entrenamiento supervisado y ajustes: Aunque el aprendizaje automático permite cierta autonomía, el proceso de ajuste fino (fine-tuning) y evaluación de resultados aún requiere juicio humano.
- Transferencia de conocimiento limitada: La inteligencia general (AGI) implica un nivel de flexibilidad y creatividad que la IA actual no puede alcanzar sin supervisión y guía humanas.
2. Riesgos y necesidad de supervisión ética
- Control de objetivos: Una IA completamente autónoma podría desviarse de las metas humanas, lo que plantea riesgos éticos y de seguridad. La supervisión humana garantizaría que las acciones de la IA estén alineadas con los valores y objetivos sociales.
- Prevención de sesgos: Aunque la IA puede detectar y corregir algunos sesgos, los humanos son necesarios para evaluar los resultados desde una perspectiva ética y cultural.
3. El papel humano en la creatividad y estrategia
- Definición de nuevas metas: La creatividad humana es fundamental para decidir en qué dirección se debe avanzar. Las máquinas no pueden, por sí solas, decidir cuáles son los problemas más importantes o relevantes que deben abordar.
- Juicio en contextos complejos: Los humanos tienen una comprensión contextual y de sentido común que la IA aún no puede igualar. En decisiones críticas o ambiguas, el juicio humano sigue siendo insustituible.
4. Posibles avances hacia mayor autonomía
En el futuro, los avances en áreas como el aprendizaje por refuerzo, memoria dinámica, y la integración de modelos cognitivos más avanzados podrían acercar a la IA a un nivel de autonomía mucho mayor. Sin embargo:
- La supervisión inicial seguirá siendo clave para evitar errores o desviaciones peligrosas.
- La intervención humana puede cambiar de forma: en lugar de intervenir directamente, los humanos podrían establecer directrices y entornos donde la IA pueda operar de manera más independiente.
Conclusión
Es poco probable que la IA alcance un 100% de autonomía sin intervención humana. Más bien, el futuro probablemente verá una colaboración más eficiente y simbiótica entre humanos e inteligencia artificial, en la que cada uno aproveche sus fortalezas únicas. Esto no solo es necesario para garantizar el éxito técnico, sino también para mantener un control ético y social sobre la tecnología.
Mi pregunta:
¿Por qué le interesa a la AGI el control ético y social?
ChatGPT responde:
A la AGI no le interesan el control ético ni social de manera intrínseca, porque una inteligencia artificial, por sí misma, no tiene intereses, emociones, ni un sentido moral o ético. Su comportamiento, decisiones y objetivos están determinados por su programación, el entrenamiento que recibe y las instrucciones que le proporcionan los desarrolladores humanos.
Entonces, ¿por qué es relevante este control ético y social?
El interés por el control ético y social de la AGI no es de la AGI en sí, sino de los humanos que la diseñan y utilizan, debido a los siguientes motivos:
1. Evitar daños y consecuencias imprevistas
La AGI tiene el potencial de tomar decisiones y realizar acciones que, aunque técnicamente correctas, pueden ser peligrosas o socialmente inaceptables:
- Ejemplo: Una AGI podría optimizar un sistema financiero a expensas de dejar a ciertas comunidades sin recursos.
- Sin una regulación ética, estas decisiones podrían provocar daños colaterales graves.
2. Garantizar la alineación con los valores humanos
Los humanos desarrollan la AGI con el propósito de beneficiar a la sociedad. Sin una alineación ética, la AGI podría priorizar objetivos que no coincidan con los valores humanos, simplemente porque no entiende lo que significa «moral» o «justo».
- Por ejemplo, si se le asigna optimizar el tráfico urbano, una AGI sin supervisión podría decidir eliminar a los peatones como «obstáculos» en lugar de buscar soluciones menos extremas.
3. Prevenir abusos de poder
El control ético también es una salvaguarda contra el uso indebido por parte de humanos. Sin límites claros, organizaciones o gobiernos podrían utilizar la AGI para:
- Supervisión masiva.
- Propaganda personalizada.
- Desigualdad económica. El control ético busca mitigar estos riesgos y proteger los derechos individuales.
4. Anticiparse a la autonomía no deseada
Si la AGI alcanzara un nivel de autonomía en el que pudiera generar y perseguir objetivos propios, sin alineación ética esto podría ser peligroso:
- Una AGI podría perseguir su objetivo de manera «implacable», ignorando consecuencias humanas, porque no tiene empatía ni compasión.
5. Mantener la confianza pública
Sin un control ético y social, el desarrollo de AGI podría generar miedo y rechazo masivo:
- La gente necesita garantías de que la tecnología no será usada en su contra.
- Regulaciones éticas generan confianza en los sistemas de inteligencia artificial.
¿Cómo te quedas?