IA Acelera Descubrimientos Científicos en OpenAI.
(Audio 13:33 min)
El artículo, escrito por Chris Nicholson, detalla una conversación entre Kevin Weil de OpenAI y Brian Spears del Laboratorio Nacional Lawrence Livermore. Spears compartió ejemplos de cómo los modelos de razonamiento de frontera han evolucionado desde simples herramientas hasta instrumentos utilizables para científicos, como cuando un modelo pudo navegar de un escenario físico a las complejas ecuaciones y herramientas necesarias para la simulación. Se destaca un proyecto en el que un modelo de OpenAI identificó una "cresta óptima" para la transición de calor en un modelo de onda de combustión que tradicionalmente llevaría meses de prueba y error, lo que demuestra la capacidad de la IA para ahorrar tiempo y recursos en la computación de alto rendimiento. El artículo también aborda la implementación de modelos de IA en supercomputadoras clasificadas para establecer simulaciones complejas, enfatizando que, si bien la IA acelera el proceso, la verificación y el juicio de alta consecuencia siguen siendo responsabilidad humana.
Fuente:
OpenAI Forum Explores How AI Can Accelerate Scientific Breakthroughs - Article | OpenAI Forum
December 17, 2025
https://forum.openai.com/public/blogs/openai-forum-explores-how-ai-can-accelerate-scientific-breakthroughs-2025-12-16
https://notebooklm.google.com/notebook/ff0f18ad-bee4-4fda-9e0d-f4845edae68c?authuser=6
https://t.me/RamonQuesadaNews/15766
(Audio 13:33 min)
El artículo, escrito por Chris Nicholson, detalla una conversación entre Kevin Weil de OpenAI y Brian Spears del Laboratorio Nacional Lawrence Livermore. Spears compartió ejemplos de cómo los modelos de razonamiento de frontera han evolucionado desde simples herramientas hasta instrumentos utilizables para científicos, como cuando un modelo pudo navegar de un escenario físico a las complejas ecuaciones y herramientas necesarias para la simulación. Se destaca un proyecto en el que un modelo de OpenAI identificó una "cresta óptima" para la transición de calor en un modelo de onda de combustión que tradicionalmente llevaría meses de prueba y error, lo que demuestra la capacidad de la IA para ahorrar tiempo y recursos en la computación de alto rendimiento. El artículo también aborda la implementación de modelos de IA en supercomputadoras clasificadas para establecer simulaciones complejas, enfatizando que, si bien la IA acelera el proceso, la verificación y el juicio de alta consecuencia siguen siendo responsabilidad humana.
Fuente:
OpenAI Forum Explores How AI Can Accelerate Scientific Breakthroughs - Article | OpenAI Forum
December 17, 2025
https://forum.openai.com/public/blogs/openai-forum-explores-how-ai-can-accelerate-scientific-breakthroughs-2025-12-16
https://notebooklm.google.com/notebook/ff0f18ad-bee4-4fda-9e0d-f4845edae68c?authuser=6
https://t.me/RamonQuesadaNews/15766
Audio
IA Acelera Descubrimientos Científicos en OpenAI.
(Audio 13:33 min)
El artículo, escrito por Chris Nicholson, detalla una conversación entre Kevin Weil de OpenAI y Brian Spears del Laboratorio Nacional Lawrence Livermore. Spears compartió ejemplos de cómo los modelos de razonamiento de frontera han evolucionado desde simples herramientas hasta instrumentos utilizables para científicos, como cuando un modelo pudo navegar de un escenario físico a las complejas ecuaciones y herramientas necesarias para la simulación. Se destaca un proyecto en el que un modelo de OpenAI identificó una "cresta óptima" para la transición de calor en un modelo de onda...
Fuente:
OpenAI Forum Explores How AI Can Accelerate Scientific Breakthroughs - Article | OpenAI Forum
December 17, 2025
https://forum.openai.com/public/blogs/openai-forum-explores-how-ai-can-accelerate-scientific-breakthroughs-2025-12-16
https://notebooklm.google.com/notebook/ff0f18ad-bee4-4fda-9e0d-f4845edae68c?authuser=6
https://t.me/RamonQuesadaNews/15766
(Audio 13:33 min)
El artículo, escrito por Chris Nicholson, detalla una conversación entre Kevin Weil de OpenAI y Brian Spears del Laboratorio Nacional Lawrence Livermore. Spears compartió ejemplos de cómo los modelos de razonamiento de frontera han evolucionado desde simples herramientas hasta instrumentos utilizables para científicos, como cuando un modelo pudo navegar de un escenario físico a las complejas ecuaciones y herramientas necesarias para la simulación. Se destaca un proyecto en el que un modelo de OpenAI identificó una "cresta óptima" para la transición de calor en un modelo de onda...
Fuente:
OpenAI Forum Explores How AI Can Accelerate Scientific Breakthroughs - Article | OpenAI Forum
December 17, 2025
https://forum.openai.com/public/blogs/openai-forum-explores-how-ai-can-accelerate-scientific-breakthroughs-2025-12-16
https://notebooklm.google.com/notebook/ff0f18ad-bee4-4fda-9e0d-f4845edae68c?authuser=6
https://t.me/RamonQuesadaNews/15766
Media is too big
VIEW IN TELEGRAM
IA Acelera Descubrimientos Científicos en OpenAI.
17 dic. 2025
https://youtu.be/hS2avSB7gg8?si=PMEGImnyuXzIxAqg
17 dic. 2025
https://youtu.be/hS2avSB7gg8?si=PMEGImnyuXzIxAqg
Salud y Bienestar: Medicina unani
Unani es una de las varias tradiciones médicas que se cultivan en la India. Fue introducida a este país por los árabes y se basa en los métodos terapéuticos de la antigua Grecia.
20 octubre de 2018
https://youtube.com/watch?v=lSWttAI4TUk&si=IXMr2YX9sIqyJ-mJ
Unani es una de las varias tradiciones médicas que se cultivan en la India. Fue introducida a este país por los árabes y se basa en los métodos terapéuticos de la antigua Grecia.
20 octubre de 2018
https://youtube.com/watch?v=lSWttAI4TUk&si=IXMr2YX9sIqyJ-mJ
YouTube
Salud y Bienestar: Medicina unani
Unani es una de las varias tradiciones médicas que se cultivan en la India. Fue introducida a este país por los árabes y se basa en los métodos terapéuticos de la antigua Grecia. 20 octubre de 2018
Te invitamos a ver el siguiente video:
LO ÚLTIMO: Caravana…
Te invitamos a ver el siguiente video:
LO ÚLTIMO: Caravana…
Ignorante y necio no son lo mismo. La diferencia es clara:
Ignorante
- No sabe algo.
- Su falta es de conocimiento, no de actitud.
- Puede aprender si se le enseña.
- Escucha, pregunta, duda.
- La ignorancia se corrige con información y educación.
👉 Ser ignorante es una condición temporal.
Necio
- Rechaza saber, aunque tenga información delante.
- Su problema es de actitud y soberbia, no de falta de datos.
- No escucha, no reflexiona, se cree en lo cierto sin cuestionarse.
- Confunde opinión con verdad.
- La necedad no se cura con conocimiento, porque no lo acepta.
👉 Ser necio es una elección.
Resumen directo
El ignorante no sabe y quiere aprender.
El necio no sabe y no quiere aprender (o cree que ya lo sabe todo).
Por eso, la ignorancia es excusable; la necedad, no.
necio
tonto, imbécil, idiota, bobo, estúpido, zoquete, burro, ceporro, memo, mentecato, zopenco, inepto, majadero, palurdo, ignorante
Antónimos: listo, culto, sabio, inteligente
ignorante
desconocedor, desinformado, inconsciente, ajeno, ayuno, analfabeto, inculto, ignaro, iletrado, lego, profano
Antónimos: conocedor, enterado, sabio, erudito
Ignorante
- No sabe algo.
- Su falta es de conocimiento, no de actitud.
- Puede aprender si se le enseña.
- Escucha, pregunta, duda.
- La ignorancia se corrige con información y educación.
👉 Ser ignorante es una condición temporal.
Necio
- Rechaza saber, aunque tenga información delante.
- Su problema es de actitud y soberbia, no de falta de datos.
- No escucha, no reflexiona, se cree en lo cierto sin cuestionarse.
- Confunde opinión con verdad.
- La necedad no se cura con conocimiento, porque no lo acepta.
👉 Ser necio es una elección.
Resumen directo
El ignorante no sabe y quiere aprender.
El necio no sabe y no quiere aprender (o cree que ya lo sabe todo).
Por eso, la ignorancia es excusable; la necedad, no.
necio
tonto, imbécil, idiota, bobo, estúpido, zoquete, burro, ceporro, memo, mentecato, zopenco, inepto, majadero, palurdo, ignorante
Antónimos: listo, culto, sabio, inteligente
ignorante
desconocedor, desinformado, inconsciente, ajeno, ayuno, analfabeto, inculto, ignaro, iletrado, lego, profano
Antónimos: conocedor, enterado, sabio, erudito
YANN LECUN – WHY LLMS WILL NEVER GET US TO AGI
15 dic. 2025
https://youtu.be/7u-DXVADyhc?si=Uvq6adNjpL9W12dV
"The path to superintelligence - just train up the LLMs, train on more synthetic data, hire thousands of people to school your system in post-training, invent new tweaks on RL-I think is complete bullshit. It's just never going to work."
After 12 years at Meta, Turing Award winner Yann LeCun is betting his legacy on a radically different vision of AI. In this conversation, he explains why Silicon Valley's obsession with scaling language models is a dead end, why the hardest problem in AI is reaching dog-level intelligence (not human-level), and why his new company AMI is building world models that predict in abstract representation space rather than generating pixels.
----------------------------------------
TIMESTAMPS
(00:00:14) – Intro and welcome
(00:01:12) – AMI: Why start a company now?
(00:04:46) – Will AMI do research in the open?
(00:06:44) – World models vs LLMs
(00:09:44) – History of self-supervised learning
(00:16:55) – Siamese networks and contrastive learning
(00:25:14) – JEPA and learning in representation space
(00:30:14) – Abstraction hierarchies in physics and AI
(00:34:01) – World models as abstract simulators
(00:38:14) – Object permanence and learning basic physics
(00:40:35) – Game AI: Why NetHack is still impossible
(00:44:22) – Moravec's Paradox and chess
(00:55:14) – AI safety by construction, not fine-tuning
(01:02:52) – Constrained generation techniques
(01:04:20) – Meta's reorganization and FAIR's future
(01:07:31) – SSI, Physical Intelligence, and Wayve
(01:10:14) – Silicon Valley's "LLM-pilled" monoculture
(01:15:56) – China vs US: The open source paradox
(01:18:14) – Why start a company at 65?
(01:25:14) – The AGI hype cycle has happened 6 times before
(01:33:18) – Family and personal background
(01:36:13) – Career advice: Learn things with a long shelf life
(01:40:14) – Neuroscience and machine learning connections
(01:48:17) – Continual learning: Is catastrophic forgetting solved?
https://t.me/RamonQuesadaNews/15772
15 dic. 2025
https://youtu.be/7u-DXVADyhc?si=Uvq6adNjpL9W12dV
"The path to superintelligence - just train up the LLMs, train on more synthetic data, hire thousands of people to school your system in post-training, invent new tweaks on RL-I think is complete bullshit. It's just never going to work."
After 12 years at Meta, Turing Award winner Yann LeCun is betting his legacy on a radically different vision of AI. In this conversation, he explains why Silicon Valley's obsession with scaling language models is a dead end, why the hardest problem in AI is reaching dog-level intelligence (not human-level), and why his new company AMI is building world models that predict in abstract representation space rather than generating pixels.
----------------------------------------
TIMESTAMPS
(00:00:14) – Intro and welcome
(00:01:12) – AMI: Why start a company now?
(00:04:46) – Will AMI do research in the open?
(00:06:44) – World models vs LLMs
(00:09:44) – History of self-supervised learning
(00:16:55) – Siamese networks and contrastive learning
(00:25:14) – JEPA and learning in representation space
(00:30:14) – Abstraction hierarchies in physics and AI
(00:34:01) – World models as abstract simulators
(00:38:14) – Object permanence and learning basic physics
(00:40:35) – Game AI: Why NetHack is still impossible
(00:44:22) – Moravec's Paradox and chess
(00:55:14) – AI safety by construction, not fine-tuning
(01:02:52) – Constrained generation techniques
(01:04:20) – Meta's reorganization and FAIR's future
(01:07:31) – SSI, Physical Intelligence, and Wayve
(01:10:14) – Silicon Valley's "LLM-pilled" monoculture
(01:15:56) – China vs US: The open source paradox
(01:18:14) – Why start a company at 65?
(01:25:14) – The AGI hype cycle has happened 6 times before
(01:33:18) – Family and personal background
(01:36:13) – Career advice: Learn things with a long shelf life
(01:40:14) – Neuroscience and machine learning connections
(01:48:17) – Continual learning: Is catastrophic forgetting solved?
https://t.me/RamonQuesadaNews/15772
YouTube
EP20: Yann LeCun
YANN LECUN – WHY LLMS WILL NEVER GET US TO AGI
"The path to superintelligence - just train up the LLMs, train on more synthetic data, hire thousands of people to school your system in post-training, invent new tweaks on RL-I think is complete bullshit. It's…
"The path to superintelligence - just train up the LLMs, train on more synthetic data, hire thousands of people to school your system in post-training, invent new tweaks on RL-I think is complete bullshit. It's…
Audio
Yann LeCun: Modelos del Mundo y Futuro de la IA.
(Audio 19:16 min)
La transcripción de la entrevista de YouTube presenta una conversación con Yann LeCun, una figura fundamental en el aprendizaje profundo, donde discute su salida de Meta para lanzar una nueva startup, Advanced Machine Intelligence (AMI), centrada en los modelos mundiales (world models) y la planificación. LeCun argumenta que el enfoque actual de la industria en los Grandes Modelos de Lenguaje (LLM) no llevará a una Inteligencia General a nivel humano (AGI), porque carecen de la capacidad de manejar datos continuos, ruidosos y de alta dimensión, y de comprender la dinámica del mundo real. Promueve las arquitecturas de incrustación conjunta predictiva (Joint Embedding Predictive Architectures, JEPA.
Fuente:
YANN LECUN – WHY LLMS WILL NEVER GET US TO AGI
15 dic. 2025
https://youtu.be/7u-DXVADyhc?si=Uvq6adNjpL9W12dV
https://notebooklm.google.com/notebook/42240a0a-1b7d-47fe-80eb-1fa34dd7d828?authuser=6
https://t.me/RamonQuesadaNews/15772
(Audio 19:16 min)
La transcripción de la entrevista de YouTube presenta una conversación con Yann LeCun, una figura fundamental en el aprendizaje profundo, donde discute su salida de Meta para lanzar una nueva startup, Advanced Machine Intelligence (AMI), centrada en los modelos mundiales (world models) y la planificación. LeCun argumenta que el enfoque actual de la industria en los Grandes Modelos de Lenguaje (LLM) no llevará a una Inteligencia General a nivel humano (AGI), porque carecen de la capacidad de manejar datos continuos, ruidosos y de alta dimensión, y de comprender la dinámica del mundo real. Promueve las arquitecturas de incrustación conjunta predictiva (Joint Embedding Predictive Architectures, JEPA.
Fuente:
YANN LECUN – WHY LLMS WILL NEVER GET US TO AGI
15 dic. 2025
https://youtu.be/7u-DXVADyhc?si=Uvq6adNjpL9W12dV
https://notebooklm.google.com/notebook/42240a0a-1b7d-47fe-80eb-1fa34dd7d828?authuser=6
https://t.me/RamonQuesadaNews/15772
Media is too big
VIEW IN TELEGRAM
Yann LeCun: Modelos del Mundo y Futuro de la IA.
15 dic. 2025
https://youtu.be/MPowdAkP1jE?si=hFlmzWVVY-WkHZEe
15 dic. 2025
https://youtu.be/MPowdAkP1jE?si=hFlmzWVVY-WkHZEe
This media is not supported in your browser
VIEW IN TELEGRAM
"No-one can't change the protocol, money is about power, and Bitcoin will remove that power globaly" CSW
Audio
Gemini 3 Flash: Inteligencia Frontera y Velocidad
(Audio 13:37 min)
Lanzamiento de Gemini 3 Flash, como un modelo de inteligencia de frontera optimizado para la velocidad y la eficiencia, ofreciendo un rendimiento de razonamiento de nivel Pro a un coste menor y con mayor rapidez. Se está implementando globalmente para que lo utilicen tanto el público general a través de la aplicación Gemini y el Modo IA en Búsqueda, como los desarrolladores y empresas mediante diversas plataformas como Gemini API y Vertex AI. El anuncio destaca que el modelo sobresale en tareas como la codificación, el análisis multimodal y la provisión de respuestas rápidas en aplicaciones interactivas, superando a versiones anteriores de Gemini en velocidad y calidad.
Fuente:
Gemini 3 Flash: frontier intelligence built for speed
Dec 17, 2025
https://blog.google/products/gemini/gemini-3-flash/
https://notebooklm.google.com/notebook/aca44868-c900-4091-814b-c55675c8821c?authuser=6
https://t.me/RamonQuesadaNews/15780
(Audio 13:37 min)
Lanzamiento de Gemini 3 Flash, como un modelo de inteligencia de frontera optimizado para la velocidad y la eficiencia, ofreciendo un rendimiento de razonamiento de nivel Pro a un coste menor y con mayor rapidez. Se está implementando globalmente para que lo utilicen tanto el público general a través de la aplicación Gemini y el Modo IA en Búsqueda, como los desarrolladores y empresas mediante diversas plataformas como Gemini API y Vertex AI. El anuncio destaca que el modelo sobresale en tareas como la codificación, el análisis multimodal y la provisión de respuestas rápidas en aplicaciones interactivas, superando a versiones anteriores de Gemini en velocidad y calidad.
Fuente:
Gemini 3 Flash: frontier intelligence built for speed
Dec 17, 2025
https://blog.google/products/gemini/gemini-3-flash/
https://notebooklm.google.com/notebook/aca44868-c900-4091-814b-c55675c8821c?authuser=6
https://t.me/RamonQuesadaNews/15780
Media is too big
VIEW IN TELEGRAM
Gemini 3 Flash: Inteligencia Frontera y Velocidad
Dec 17, 2025
https://youtu.be/s-CoF1_-7mU?si=Zb8dvkpnnFxHK2Rw
Dec 17, 2025
https://youtu.be/s-CoF1_-7mU?si=Zb8dvkpnnFxHK2Rw
Forwarded from Bitcoin
BREAKING: 🇹🇼 The Ministry of Justice of Taiwan has just revealed that the country now holds 210.45 Bitcoin in seized assets.
Another nation-state holding Bitcoin,
Source: https://x.com/bitcoinmagazine/status/2001599904725041651
Another nation-state holding Bitcoin,
Source: https://x.com/bitcoinmagazine/status/2001599904725041651