CUENTA ATRÁS PARA MADURO Trump aprieta y el régimen se resquebraja - @So...
https://youtube.com/watch?v=Pahq1litgcI&si=31T7g4v6jhglPUmU
https://youtube.com/watch?v=Pahq1litgcI&si=31T7g4v6jhglPUmU
YouTube
CUENTA ATRÁS PARA MADURO Trump aprieta y el régimen se resquebraja - @SoloFonseca
→ ¡Recupera tus datos personales con Incogni! Utiliza el código SOLOFONSECA en el enlace y consigue un 60% de descuento en un plan anual: https://incogni.com/solofonseca
Patrocinador
Donald Trump ha intensificado de forma drástica la presión contra Nicolás…
Patrocinador
Donald Trump ha intensificado de forma drástica la presión contra Nicolás…
¡WOW! Nuevo Agente IA que Clona Videos Virales (Tutorial TopView Agent)
https://youtube.com/watch?v=G0ypqBwI1rI&si=liXxVQQcvMedP3P9
https://youtube.com/watch?v=G0ypqBwI1rI&si=liXxVQQcvMedP3P9
YouTube
¡WOW! Nuevo Agente IA que Clona Videos Virales (Tutorial TopView Agent)
◆ Pruébalo con varios productos, te va a impresionar: https://cutt.ly/AeQjL2pN
=======
🎙️ Sobre el presentador principal del canal:
Javier cuenta con 26 años de trayectoria profesional. Lleva emprendidos 8 proyectos centrados en la inteligencia artificial…
=======
🎙️ Sobre el presentador principal del canal:
Javier cuenta con 26 años de trayectoria profesional. Lleva emprendidos 8 proyectos centrados en la inteligencia artificial…
CWM: Modelos de Mundo para Computación y Ejecución.
(Audio 15:56 min)
El texto es una transcripción de una presentación sobre el Modelo de Mundo de Código (CWM), un proyecto de investigación de FAIR Meta liderado por Jacob Kahn, cuyo objetivo principal es construir modelos de mundo para la computación. El CWM busca modelar explícitamente la ejecución de código y predecir las observaciones futuras basándose en acciones y observaciones pasadas, lo cual es esencial para el razonamiento, la planificación y la toma de decisiones en sistemas agenticos. Los investigadores recopilaron una gran cantidad de datos de GitHub para entrenar su transformador denso de 32 mil millones de parámetros, con un enfoque en trazas de ejecución a nivel de repositorio y un fuerte énfasis en la interacción con el entorno a través de Bash. Este modelo, disponible abiertamente, demuestra una gran capacidad para trazar la ejecución de funciones con precisión y ofrece nuevas posibilidades como un "depurador neuronal" que ayuda a componer código al simular su ejecución. Finalmente, el CWM está explorando cómo estas capacidades de simulación podrían usarse para aproximar soluciones a problemas complejos de la informática, como el problema de la parada (halting problem).
Fuente:
Modelo de mundo de código: Construcción de modelos de mundo para computa...
Speaker: Jacob Kahn | Research Scientist, FAIR, Meta
17 dic. 2025
https://youtube.com/watch?v=sYgE4ppDFOQ&si=T-Wgch713HGPK_ko
https://notebooklm.google.com/notebook/88816c80-fcd0-49f8-996d-b1dd1f811b72?authuser=6
https://t.me/RamonQuesadaNews/15761
(Audio 15:56 min)
El texto es una transcripción de una presentación sobre el Modelo de Mundo de Código (CWM), un proyecto de investigación de FAIR Meta liderado por Jacob Kahn, cuyo objetivo principal es construir modelos de mundo para la computación. El CWM busca modelar explícitamente la ejecución de código y predecir las observaciones futuras basándose en acciones y observaciones pasadas, lo cual es esencial para el razonamiento, la planificación y la toma de decisiones en sistemas agenticos. Los investigadores recopilaron una gran cantidad de datos de GitHub para entrenar su transformador denso de 32 mil millones de parámetros, con un enfoque en trazas de ejecución a nivel de repositorio y un fuerte énfasis en la interacción con el entorno a través de Bash. Este modelo, disponible abiertamente, demuestra una gran capacidad para trazar la ejecución de funciones con precisión y ofrece nuevas posibilidades como un "depurador neuronal" que ayuda a componer código al simular su ejecución. Finalmente, el CWM está explorando cómo estas capacidades de simulación podrían usarse para aproximar soluciones a problemas complejos de la informática, como el problema de la parada (halting problem).
Fuente:
Modelo de mundo de código: Construcción de modelos de mundo para computa...
Speaker: Jacob Kahn | Research Scientist, FAIR, Meta
17 dic. 2025
https://youtube.com/watch?v=sYgE4ppDFOQ&si=T-Wgch713HGPK_ko
https://notebooklm.google.com/notebook/88816c80-fcd0-49f8-996d-b1dd1f811b72?authuser=6
https://t.me/RamonQuesadaNews/15761
IA Acelera Descubrimientos Científicos en OpenAI.
(Audio 13:33 min)
El artículo, escrito por Chris Nicholson, detalla una conversación entre Kevin Weil de OpenAI y Brian Spears del Laboratorio Nacional Lawrence Livermore. Spears compartió ejemplos de cómo los modelos de razonamiento de frontera han evolucionado desde simples herramientas hasta instrumentos utilizables para científicos, como cuando un modelo pudo navegar de un escenario físico a las complejas ecuaciones y herramientas necesarias para la simulación. Se destaca un proyecto en el que un modelo de OpenAI identificó una "cresta óptima" para la transición de calor en un modelo de onda de combustión que tradicionalmente llevaría meses de prueba y error, lo que demuestra la capacidad de la IA para ahorrar tiempo y recursos en la computación de alto rendimiento. El artículo también aborda la implementación de modelos de IA en supercomputadoras clasificadas para establecer simulaciones complejas, enfatizando que, si bien la IA acelera el proceso, la verificación y el juicio de alta consecuencia siguen siendo responsabilidad humana.
Fuente:
OpenAI Forum Explores How AI Can Accelerate Scientific Breakthroughs - Article | OpenAI Forum
December 17, 2025
https://forum.openai.com/public/blogs/openai-forum-explores-how-ai-can-accelerate-scientific-breakthroughs-2025-12-16
https://notebooklm.google.com/notebook/ff0f18ad-bee4-4fda-9e0d-f4845edae68c?authuser=6
https://t.me/RamonQuesadaNews/15766
(Audio 13:33 min)
El artículo, escrito por Chris Nicholson, detalla una conversación entre Kevin Weil de OpenAI y Brian Spears del Laboratorio Nacional Lawrence Livermore. Spears compartió ejemplos de cómo los modelos de razonamiento de frontera han evolucionado desde simples herramientas hasta instrumentos utilizables para científicos, como cuando un modelo pudo navegar de un escenario físico a las complejas ecuaciones y herramientas necesarias para la simulación. Se destaca un proyecto en el que un modelo de OpenAI identificó una "cresta óptima" para la transición de calor en un modelo de onda de combustión que tradicionalmente llevaría meses de prueba y error, lo que demuestra la capacidad de la IA para ahorrar tiempo y recursos en la computación de alto rendimiento. El artículo también aborda la implementación de modelos de IA en supercomputadoras clasificadas para establecer simulaciones complejas, enfatizando que, si bien la IA acelera el proceso, la verificación y el juicio de alta consecuencia siguen siendo responsabilidad humana.
Fuente:
OpenAI Forum Explores How AI Can Accelerate Scientific Breakthroughs - Article | OpenAI Forum
December 17, 2025
https://forum.openai.com/public/blogs/openai-forum-explores-how-ai-can-accelerate-scientific-breakthroughs-2025-12-16
https://notebooklm.google.com/notebook/ff0f18ad-bee4-4fda-9e0d-f4845edae68c?authuser=6
https://t.me/RamonQuesadaNews/15766
Audio
IA Acelera Descubrimientos Científicos en OpenAI.
(Audio 13:33 min)
El artículo, escrito por Chris Nicholson, detalla una conversación entre Kevin Weil de OpenAI y Brian Spears del Laboratorio Nacional Lawrence Livermore. Spears compartió ejemplos de cómo los modelos de razonamiento de frontera han evolucionado desde simples herramientas hasta instrumentos utilizables para científicos, como cuando un modelo pudo navegar de un escenario físico a las complejas ecuaciones y herramientas necesarias para la simulación. Se destaca un proyecto en el que un modelo de OpenAI identificó una "cresta óptima" para la transición de calor en un modelo de onda...
Fuente:
OpenAI Forum Explores How AI Can Accelerate Scientific Breakthroughs - Article | OpenAI Forum
December 17, 2025
https://forum.openai.com/public/blogs/openai-forum-explores-how-ai-can-accelerate-scientific-breakthroughs-2025-12-16
https://notebooklm.google.com/notebook/ff0f18ad-bee4-4fda-9e0d-f4845edae68c?authuser=6
https://t.me/RamonQuesadaNews/15766
(Audio 13:33 min)
El artículo, escrito por Chris Nicholson, detalla una conversación entre Kevin Weil de OpenAI y Brian Spears del Laboratorio Nacional Lawrence Livermore. Spears compartió ejemplos de cómo los modelos de razonamiento de frontera han evolucionado desde simples herramientas hasta instrumentos utilizables para científicos, como cuando un modelo pudo navegar de un escenario físico a las complejas ecuaciones y herramientas necesarias para la simulación. Se destaca un proyecto en el que un modelo de OpenAI identificó una "cresta óptima" para la transición de calor en un modelo de onda...
Fuente:
OpenAI Forum Explores How AI Can Accelerate Scientific Breakthroughs - Article | OpenAI Forum
December 17, 2025
https://forum.openai.com/public/blogs/openai-forum-explores-how-ai-can-accelerate-scientific-breakthroughs-2025-12-16
https://notebooklm.google.com/notebook/ff0f18ad-bee4-4fda-9e0d-f4845edae68c?authuser=6
https://t.me/RamonQuesadaNews/15766
Media is too big
VIEW IN TELEGRAM
IA Acelera Descubrimientos Científicos en OpenAI.
17 dic. 2025
https://youtu.be/hS2avSB7gg8?si=PMEGImnyuXzIxAqg
17 dic. 2025
https://youtu.be/hS2avSB7gg8?si=PMEGImnyuXzIxAqg
Salud y Bienestar: Medicina unani
Unani es una de las varias tradiciones médicas que se cultivan en la India. Fue introducida a este país por los árabes y se basa en los métodos terapéuticos de la antigua Grecia.
20 octubre de 2018
https://youtube.com/watch?v=lSWttAI4TUk&si=IXMr2YX9sIqyJ-mJ
Unani es una de las varias tradiciones médicas que se cultivan en la India. Fue introducida a este país por los árabes y se basa en los métodos terapéuticos de la antigua Grecia.
20 octubre de 2018
https://youtube.com/watch?v=lSWttAI4TUk&si=IXMr2YX9sIqyJ-mJ
YouTube
Salud y Bienestar: Medicina unani
Unani es una de las varias tradiciones médicas que se cultivan en la India. Fue introducida a este país por los árabes y se basa en los métodos terapéuticos de la antigua Grecia. 20 octubre de 2018
Te invitamos a ver el siguiente video:
LO ÚLTIMO: Caravana…
Te invitamos a ver el siguiente video:
LO ÚLTIMO: Caravana…
Ignorante y necio no son lo mismo. La diferencia es clara:
Ignorante
- No sabe algo.
- Su falta es de conocimiento, no de actitud.
- Puede aprender si se le enseña.
- Escucha, pregunta, duda.
- La ignorancia se corrige con información y educación.
👉 Ser ignorante es una condición temporal.
Necio
- Rechaza saber, aunque tenga información delante.
- Su problema es de actitud y soberbia, no de falta de datos.
- No escucha, no reflexiona, se cree en lo cierto sin cuestionarse.
- Confunde opinión con verdad.
- La necedad no se cura con conocimiento, porque no lo acepta.
👉 Ser necio es una elección.
Resumen directo
El ignorante no sabe y quiere aprender.
El necio no sabe y no quiere aprender (o cree que ya lo sabe todo).
Por eso, la ignorancia es excusable; la necedad, no.
necio
tonto, imbécil, idiota, bobo, estúpido, zoquete, burro, ceporro, memo, mentecato, zopenco, inepto, majadero, palurdo, ignorante
Antónimos: listo, culto, sabio, inteligente
ignorante
desconocedor, desinformado, inconsciente, ajeno, ayuno, analfabeto, inculto, ignaro, iletrado, lego, profano
Antónimos: conocedor, enterado, sabio, erudito
Ignorante
- No sabe algo.
- Su falta es de conocimiento, no de actitud.
- Puede aprender si se le enseña.
- Escucha, pregunta, duda.
- La ignorancia se corrige con información y educación.
👉 Ser ignorante es una condición temporal.
Necio
- Rechaza saber, aunque tenga información delante.
- Su problema es de actitud y soberbia, no de falta de datos.
- No escucha, no reflexiona, se cree en lo cierto sin cuestionarse.
- Confunde opinión con verdad.
- La necedad no se cura con conocimiento, porque no lo acepta.
👉 Ser necio es una elección.
Resumen directo
El ignorante no sabe y quiere aprender.
El necio no sabe y no quiere aprender (o cree que ya lo sabe todo).
Por eso, la ignorancia es excusable; la necedad, no.
necio
tonto, imbécil, idiota, bobo, estúpido, zoquete, burro, ceporro, memo, mentecato, zopenco, inepto, majadero, palurdo, ignorante
Antónimos: listo, culto, sabio, inteligente
ignorante
desconocedor, desinformado, inconsciente, ajeno, ayuno, analfabeto, inculto, ignaro, iletrado, lego, profano
Antónimos: conocedor, enterado, sabio, erudito
YANN LECUN – WHY LLMS WILL NEVER GET US TO AGI
15 dic. 2025
https://youtu.be/7u-DXVADyhc?si=Uvq6adNjpL9W12dV
"The path to superintelligence - just train up the LLMs, train on more synthetic data, hire thousands of people to school your system in post-training, invent new tweaks on RL-I think is complete bullshit. It's just never going to work."
After 12 years at Meta, Turing Award winner Yann LeCun is betting his legacy on a radically different vision of AI. In this conversation, he explains why Silicon Valley's obsession with scaling language models is a dead end, why the hardest problem in AI is reaching dog-level intelligence (not human-level), and why his new company AMI is building world models that predict in abstract representation space rather than generating pixels.
----------------------------------------
TIMESTAMPS
(00:00:14) – Intro and welcome
(00:01:12) – AMI: Why start a company now?
(00:04:46) – Will AMI do research in the open?
(00:06:44) – World models vs LLMs
(00:09:44) – History of self-supervised learning
(00:16:55) – Siamese networks and contrastive learning
(00:25:14) – JEPA and learning in representation space
(00:30:14) – Abstraction hierarchies in physics and AI
(00:34:01) – World models as abstract simulators
(00:38:14) – Object permanence and learning basic physics
(00:40:35) – Game AI: Why NetHack is still impossible
(00:44:22) – Moravec's Paradox and chess
(00:55:14) – AI safety by construction, not fine-tuning
(01:02:52) – Constrained generation techniques
(01:04:20) – Meta's reorganization and FAIR's future
(01:07:31) – SSI, Physical Intelligence, and Wayve
(01:10:14) – Silicon Valley's "LLM-pilled" monoculture
(01:15:56) – China vs US: The open source paradox
(01:18:14) – Why start a company at 65?
(01:25:14) – The AGI hype cycle has happened 6 times before
(01:33:18) – Family and personal background
(01:36:13) – Career advice: Learn things with a long shelf life
(01:40:14) – Neuroscience and machine learning connections
(01:48:17) – Continual learning: Is catastrophic forgetting solved?
https://t.me/RamonQuesadaNews/15772
15 dic. 2025
https://youtu.be/7u-DXVADyhc?si=Uvq6adNjpL9W12dV
"The path to superintelligence - just train up the LLMs, train on more synthetic data, hire thousands of people to school your system in post-training, invent new tweaks on RL-I think is complete bullshit. It's just never going to work."
After 12 years at Meta, Turing Award winner Yann LeCun is betting his legacy on a radically different vision of AI. In this conversation, he explains why Silicon Valley's obsession with scaling language models is a dead end, why the hardest problem in AI is reaching dog-level intelligence (not human-level), and why his new company AMI is building world models that predict in abstract representation space rather than generating pixels.
----------------------------------------
TIMESTAMPS
(00:00:14) – Intro and welcome
(00:01:12) – AMI: Why start a company now?
(00:04:46) – Will AMI do research in the open?
(00:06:44) – World models vs LLMs
(00:09:44) – History of self-supervised learning
(00:16:55) – Siamese networks and contrastive learning
(00:25:14) – JEPA and learning in representation space
(00:30:14) – Abstraction hierarchies in physics and AI
(00:34:01) – World models as abstract simulators
(00:38:14) – Object permanence and learning basic physics
(00:40:35) – Game AI: Why NetHack is still impossible
(00:44:22) – Moravec's Paradox and chess
(00:55:14) – AI safety by construction, not fine-tuning
(01:02:52) – Constrained generation techniques
(01:04:20) – Meta's reorganization and FAIR's future
(01:07:31) – SSI, Physical Intelligence, and Wayve
(01:10:14) – Silicon Valley's "LLM-pilled" monoculture
(01:15:56) – China vs US: The open source paradox
(01:18:14) – Why start a company at 65?
(01:25:14) – The AGI hype cycle has happened 6 times before
(01:33:18) – Family and personal background
(01:36:13) – Career advice: Learn things with a long shelf life
(01:40:14) – Neuroscience and machine learning connections
(01:48:17) – Continual learning: Is catastrophic forgetting solved?
https://t.me/RamonQuesadaNews/15772
YouTube
EP20: Yann LeCun
YANN LECUN – WHY LLMS WILL NEVER GET US TO AGI
"The path to superintelligence - just train up the LLMs, train on more synthetic data, hire thousands of people to school your system in post-training, invent new tweaks on RL-I think is complete bullshit. It's…
"The path to superintelligence - just train up the LLMs, train on more synthetic data, hire thousands of people to school your system in post-training, invent new tweaks on RL-I think is complete bullshit. It's…
Audio
Yann LeCun: Modelos del Mundo y Futuro de la IA.
(Audio 19:16 min)
La transcripción de la entrevista de YouTube presenta una conversación con Yann LeCun, una figura fundamental en el aprendizaje profundo, donde discute su salida de Meta para lanzar una nueva startup, Advanced Machine Intelligence (AMI), centrada en los modelos mundiales (world models) y la planificación. LeCun argumenta que el enfoque actual de la industria en los Grandes Modelos de Lenguaje (LLM) no llevará a una Inteligencia General a nivel humano (AGI), porque carecen de la capacidad de manejar datos continuos, ruidosos y de alta dimensión, y de comprender la dinámica del mundo real. Promueve las arquitecturas de incrustación conjunta predictiva (Joint Embedding Predictive Architectures, JEPA.
Fuente:
YANN LECUN – WHY LLMS WILL NEVER GET US TO AGI
15 dic. 2025
https://youtu.be/7u-DXVADyhc?si=Uvq6adNjpL9W12dV
https://notebooklm.google.com/notebook/42240a0a-1b7d-47fe-80eb-1fa34dd7d828?authuser=6
https://t.me/RamonQuesadaNews/15772
(Audio 19:16 min)
La transcripción de la entrevista de YouTube presenta una conversación con Yann LeCun, una figura fundamental en el aprendizaje profundo, donde discute su salida de Meta para lanzar una nueva startup, Advanced Machine Intelligence (AMI), centrada en los modelos mundiales (world models) y la planificación. LeCun argumenta que el enfoque actual de la industria en los Grandes Modelos de Lenguaje (LLM) no llevará a una Inteligencia General a nivel humano (AGI), porque carecen de la capacidad de manejar datos continuos, ruidosos y de alta dimensión, y de comprender la dinámica del mundo real. Promueve las arquitecturas de incrustación conjunta predictiva (Joint Embedding Predictive Architectures, JEPA.
Fuente:
YANN LECUN – WHY LLMS WILL NEVER GET US TO AGI
15 dic. 2025
https://youtu.be/7u-DXVADyhc?si=Uvq6adNjpL9W12dV
https://notebooklm.google.com/notebook/42240a0a-1b7d-47fe-80eb-1fa34dd7d828?authuser=6
https://t.me/RamonQuesadaNews/15772