Anáhuac Mayab. 5 de Marzo 2026. Mauricio Montekio.            Ligas recomendadas
:  Videos y foros sobre IA en Galería.

Galería

Lentes de realidad virtual, comparativo entre marcas.









45 formas de usar la IA. Muy ilustrativo.









Algunas aplicaciones específicas









IA para Excel











Piensa en realidad la IA ?









Foro Moonshots con Peter Diamandis muy ameno y actual, varios temas:

Va a sustituir la IA a los maestros?

Muchos otros temas de ciencia y actualidad.



Gibberlink el lenguaje de las IAs que sorprendió al mundo.









Gibberlink explicado









El poder creativo de la IA generativa video de Jaime Altozano.
Dally  y otras aplicaciones. Del 2023 pero muestra el cambio vertiginoso.
Blog muy bueno y entretenido con temas de música Jaime Altozano
muy recomendable. Absorbe horas de entretenimiento gratuito.









El caso Saddie Winters, IA Act frimado por Trump eliminó las barreras de Biden.










El futuro de la IA. Qué pasará?









Agentes de IA explicados para principiantes.










Herramientas para flujos de trabajo que no eran la solución de IA. 









Agentic code  o Código Agencial (Avanzado)









Robots humanoides con IA una revisión del 2025.









El robot humanoide ATLAS de Boston Dynamics. Ver min 16:40 en adelante.









CLAUDE COWORK cuesta 17 USD al mes (Anual) pero vale la pena? El primer video está en español y es muy claro. Se requiere la versión Pro de Claude 17 USD/mes




Robos humanoides CES 2026 motricidad avanzada.









Escena 100% IA creó una gran controversia en la industria cinematográfica.







Matt Shumer Something Big is Hapening

https://x.com/mattshumer_/status/2021256989876109403?s=20

Piensa en febrero de 2020.
Si estabas prestando mucha atención, tal vez notaste que algunas personas hablaban de un virus que se estaba propagando en el extranjero. Pero la mayoría de nosotros no estábamos prestando mucha atención. El mercado de valores iba genial, tus hijos estaban en la escuela, ibas a restaurantes, dabas apretones de manos y planeabas viajes. Si alguien te decía que estaba acumulando papel higiénico, habrías pensado que pasaba demasiado tiempo en un rincón extraño de internet. Luego, en el transcurso de unas tres semanas, el mundo entero cambió. Tu oficina cerró, tus hijos volvieron a casa y la vida se reorganizó en algo que no habrías creído posible si te lo hubieras descrito a ti mismo un mes antes.
Creo que estamos en la fase de “esto parece exagerado” de algo mucho, mucho más grande que el Covid.
Llevo seis años construyendo una startup de IA e invirtiendo en este espacio. Vivo en este mundo. Y escribo esto para las personas de mi vida que no viven en él… mi familia, mis amigos, la gente que me importa y que sigue preguntándome “entonces, ¿qué pasa con la IA?” y recibiendo una respuesta que no hace justicia a lo que realmente está ocurriendo. Les sigo dando la versión educada. La versión de cóctel. Porque la versión honesta suena como si hubiera perdido la cabeza. Durante un tiempo me dije a mí mismo que esa era una razón suficientemente buena para guardarme lo que realmente está pasando. Pero la brecha entre lo que he estado diciendo y lo que realmente está ocurriendo se ha vuelto demasiado grande. Las personas que me importan merecen saber lo que viene, aunque suene loco.
Debo ser claro desde el principio: aunque trabajo en IA, casi no tengo influencia sobre lo que está a punto de pasar, y la gran mayoría de la industria tampoco la tiene. El futuro lo están moldeando un número sorprendentemente pequeño de personas: unos pocos cientos de investigadores en un puñado de empresas… OpenAI, Anthropic, Google DeepMind y algunas más. Una sola sesión de entrenamiento, gestionada por un equipo pequeño durante unos meses, puede producir un sistema de IA que cambie toda la trayectoria de la tecnología. La mayoría de nosotros que trabajamos en IA estamos construyendo sobre cimientos que no pusimos nosotros. Estamos viendo cómo se desarrolla esto igual que tú… solo que estamos lo suficientemente cerca como para sentir primero cómo tiembla el suelo.
Pero ahora es el momento. No en plan “algún día deberíamos hablar de esto”. Sino en plan “esto está ocurriendo ahora mismo y necesito que lo entiendas”.
Sé que esto es real porque me pasó a mí primero
Aquí está lo que casi nadie fuera del mundo tecnológico entiende todavía: la razón por la que tantas personas de la industria están dando la alarma ahora es porque esto ya nos pasó a nosotros. No estamos haciendo predicciones. Te estamos contando lo que ya ocurrió en nuestros propios trabajos y te advertimos que tú eres el siguiente.
Durante años, la IA había mejorado de forma constante. Grandes saltos de vez en cuando, pero cada gran salto estaba lo suficientemente espaciado como para poder asimilarlo cuando llegaba. Luego, en 2025, nuevas técnicas para construir estos modelos desbloquearon un ritmo de progreso mucho más rápido. Y después se aceleró aún más. Y luego más rápido otra vez. Cada nuevo modelo no solo era mejor que el anterior… era mejor por un margen mucho mayor, y el tiempo entre lanzamientos era más corto. Yo estaba usando IA cada vez más, interactuando menos con ella, viendo cómo manejaba cosas que antes pensaba que requerían mi experiencia.
Entonces, el 5 de febrero, dos laboratorios importantes de IA lanzaron nuevos modelos el mismo día: GPT-5.3 Codex de OpenAI y Opus 4.6 de Anthropic (los creadores de Claude, uno de los principales competidores de ChatGPT). Y algo hizo clic. No como si se encendiera una luz… más bien como el momento en que te das cuenta de que el agua ha estado subiendo a tu alrededor y ahora te llega al pecho.
Ya no soy necesario para el trabajo técnico real de mi empleo. Describo lo que quiero que se construya, en inglés sencillo, y simplemente… aparece. No un borrador que tenga que corregir. La cosa terminada. Le digo a la IA lo que quiero, me alejo del ordenador durante cuatro horas y vuelvo para encontrar el trabajo hecho. Hecho bien, hecho mejor de lo que yo lo habría hecho, sin necesidad de correcciones. Hace un par de meses estaba yendo y viniendo con la IA, guiándola, haciendo ediciones. Ahora solo describo el resultado y me voy.
Déjame darte un ejemplo para que entiendas cómo se ve esto en la práctica. Le digo a la IA: “Quiero construir esta app. Esto es lo que debe hacer, esto es más o menos cómo debería verse. Encárgate del flujo de usuario, del diseño, de todo”. Y lo hace. Escribe decenas de miles de líneas de código. Luego —y esta es la parte que habría sido impensable hace un año— abre la app ella misma. Hace clic en los botones. Prueba las funciones. Usa la app como lo haría una persona. Si no le gusta cómo se ve o se siente algo, regresa y lo cambia, por su cuenta. Itera, como lo haría un desarrollador, corrigiendo y refinando hasta que queda satisfecha. Solo cuando decide que la app cumple con sus propios estándares regresa y me dice: “Está lista para que la pruebes”. Y cuando la pruebo, normalmente está perfecta.
No estoy exagerando. Así fue mi lunes esta semana.
Pero fue el modelo lanzado la semana pasada (GPT-5.3 Codex) el que más me sacudió. No solo estaba ejecutando mis instrucciones. Estaba tomando decisiones inteligentes. Tenía algo que, por primera vez, se sentía como juicio. Como gusto. Ese sentido inexplicable de saber cuál es la decisión correcta que siempre se dijo que la IA nunca tendría. Este modelo lo tiene, o algo lo suficientemente cercano como para que la distinción empiece a no importar.
Siempre he sido de los primeros en adoptar herramientas de IA. Pero los últimos meses me han dejado en shock. Estos nuevos modelos de IA no son mejoras incrementales. Esto es algo completamente diferente.
Y aquí está por qué esto te importa a ti, aunque no trabajes en tecnología.
Los laboratorios de IA tomaron una decisión deliberada. Se enfocaron primero en hacer que la IA fuera excelente escribiendo código… porque construir IA requiere escribir mucho código. Si la IA puede escribir ese código, puede ayudar a construir la siguiente versión de sí misma. Una versión más inteligente, que escribe mejor código, que construye una versión aún más inteligente. Hacer que la IA fuera buena en programación era la estrategia que desbloqueaba todo lo demás. Por eso lo hicieron primero. Mi trabajo empezó a cambiar antes que el tuyo no porque estuvieran apuntando a los ingenieros de software… fue solo un efecto secundario de hacia dónde eligieron apuntar primero.
Ya lo lograron. Y ahora están pasando a todo lo demás.
La experiencia que los trabajadores tecnológicos han tenido durante el último año —ver cómo la IA pasa de “herramienta útil” a “hace mi trabajo mejor que yo”— es la experiencia que todos los demás están a punto de tener. Derecho, finanzas, medicina, contabilidad, consultoría, escritura, diseño, análisis, atención al cliente. No en diez años. Las personas que construyen estos sistemas dicen de uno a cinco años. Algunos dicen menos. Y viendo lo que he visto solo en los últimos meses, creo que “menos” es más probable.
“Pero yo probé la IA y no era tan buena”
Lo escucho constantemente. Lo entiendo, porque antes era cierto.
Si probaste ChatGPT en 2023 o principios de 2024 y pensaste “esto se inventa cosas” o “no es tan impresionante”, tenías razón. Esas versiones tempranas eran genuinamente limitadas. Alucinaban. Decían con confianza cosas sin sentido.
Eso fue hace dos años. En tiempo de IA, eso es historia antigua.
Los modelos disponibles hoy son irreconocibles respecto a lo que existía hace siquiera seis meses. El debate sobre si la IA “realmente está mejorando” o “se está estancando” —que lleva más de un año— ha terminado. Se acabó. Quien siga haciendo ese argumento o no ha usado los modelos actuales, o tiene incentivos para minimizar lo que pasa, o está evaluando basado en una experiencia de 2024 que ya no es relevante. No lo digo para desestimar. Lo digo porque la brecha entre la percepción pública y la realidad actual es ahora enorme, y esa brecha es peligrosa… porque impide que la gente se prepare.
Parte del problema es que la mayoría usa la versión gratuita de las herramientas de IA. La versión gratuita está más de un año atrasada respecto a lo que tienen los usuarios de pago. Juzgar la IA basándote en la versión gratuita de ChatGPT es como evaluar el estado de los smartphones usando un teléfono plegable. Las personas que pagan por las mejores herramientas y las usan diariamente para trabajo real saben lo que viene.
Pienso en mi amigo, que es abogado. Le sigo diciendo que pruebe usar IA en su firma, y él sigue encontrando razones por las que no funcionará. No está hecha para su especialidad, cometió un error cuando la probó, no entiende los matices de lo que hace. Lo entiendo. Pero he tenido socios de grandes firmas de abogados contactándome para pedir consejo, porque han probado las versiones actuales y ven hacia dónde va esto. Uno de ellos, el socio director de una firma grande, pasa horas todos los días usando IA. Me dijo que es como tener un equipo de asociados disponible al instante. No la usa porque sea un juguete. La usa porque funciona. Y me dijo algo que se me quedó grabado: cada par de meses se vuelve significativamente más capaz para su trabajo. Dijo que si sigue en esta trayectoria, espera que pronto pueda hacer la mayor parte de lo que él hace… y es socio director con décadas de experiencia. No está en pánico. Pero está prestando mucha atención.
Las personas que van por delante en sus industrias (las que realmente están experimentando en serio) no lo están descartando. Están alucinadas con lo que ya puede hacer. Y se están posicionando en consecuencia.

"Los modelos de IA más recientes toman decisiones que parecen juicios. Muestran algo que se asemeja al gusto: un sentido intuitivo de cuál era la decisión correcta, no solo la técnicamente correcta. Hace un año eso habría sido impensable. Mi regla general en este momento es: si un modelo muestra incluso un indicio de una capacidad hoy, la próxima generación será realmente buena en eso. Estas cosas mejoran exponencialmente, no linealmente. ¿Replicará la IA la profunda empatía humana? ¿Reemplazará la confianza construida a lo largo de años de una relación? No lo sé. Tal vez no. Pero ya he visto a personas comenzar a confiar en la IA para apoyo emocional, para consejos, para compañía. Esa tendencia solo va a crecer. Creo que la respuesta honesta es que nada que se pueda hacer en una computadora es seguro a medio plazo. Si tu trabajo ocurre en una pantalla (si el núcleo de lo que haces es leer, escribir, analizar, decidir, comunicarte a través de un teclado), entonces la IA está viniendo por partes significativas de eso. La línea de tiempo no es 'algún día'. Ya ha comenzado."


Let that land for a second. If AI is smarter than most PhDs, do you really think it can't do most office jobs?
Think about what that means for your work.
AI is now building the next AI
There's one more thing happening that I think is the most important development and the least understood.
On February 5th, OpenAI released GPT-5.3 Codex. In the technical documentation, they included this:
"GPT-5.3-Codex is our first model that was instrumental in creating itself. The Codex team used early versions to debug its own training, manage its own deployment, and diagnose test results and evaluations."
Read that again. The AI helped build itself.
This isn't a prediction about what might happen someday. This is OpenAI telling you, right now, that the AI they just released was used to create itself. One of the main things that makes AI better is intelligence applied to AI development. And AI is now intelligent enough to meaningfully contribute to its own improvement.
Dario Amodei, the CEO of Anthropic, says AI is now writing "much of the code" at his company, and that the feedback loop between current AI and next-generation AI is "gathering steam month by month." He says we may be "only 1–2 years away from a point where the current generation of AI autonomously builds the next."
Each generation helps build the next, which is smarter, which builds the next faster, which is smarter still. The researchers call this an intelligence explosion. And the people who would know — the ones building it — believe the process has already started.
What this means for your job
I'm going to be direct with you because I think you deserve honesty more than comfort.
Dario Amodei, who is probably the most safety-focused CEO in the AI industry, has publicly predicted that AI will eliminate 50% of entry-level white-collar jobs within one to five years. And many people in the industry think he's being conservative. Given what the latest models can do, the capability for massive disruption could be here by the end of this year. It'll take some time to ripple through the economy, but the underlying ability is arriving now.
This is different from every previous wave of automation, and I need you to understand why. AI isn't replacing one specific skill. It's a general substitute for cognitive work. It gets better at everything simultaneously. When factories automated, a displaced worker could retrain as an office worker. When the internet disrupted retail, workers moved into logistics or services. But AI doesn't leave a convenient gap to move into. Whatever you retrain for, it's improving at that too.
Let me give you a few specific examples to make this tangible... but I want to be clear that these are just examples. This list is not exhaustive. If your job isn't mentioned here, that does not mean it's safe. Almost all knowledge work is being affected.


Legal work. AI can already read contracts, summarize case law, draft briefs, and do legal research at a level that rivals junior associates. The managing partner I mentioned isn't using AI because it's fun. He's using it because it's outperforming his associates on many tasks.


Financial analysis. Building financial models, analyzing data, writing investment memos, generating reports. AI handles these competently and is improving fast.


Writing and content. Marketing copy, reports, journalism, technical writing. The quality has reached a point where many professionals can't distinguish AI output from human work.
Software engineering. This is the field I know best. A year ago, AI could barely write a few lines of code without errors. Now it writes hundreds of thousands of lines that work correctly. Large parts of the job are already automated: not just simple tasks, but complex, multi-day projects. There will be far fewer programming roles in a few years than there are today.


Medical analysis. Reading scans, analyzing lab results, suggesting diagnoses, reviewing literature. AI is approaching or exceeding human performance in several areas.


Customer service. Genuinely capable AI agents... not the frustrating chatbots of five years ago... are being deployed now, handling complex multi-step problems.


A lot of people find comfort in the idea that certain things are safe. That AI can handle the grunt work but can't replace human judgment, creativity, strategic thinking, empathy. I used to say this too. I'm not sure I believe it anymore.


The most recent AI models make decisions that feel like judgment. They show something that looked like taste: an intuitive sense of what the right call was, not just the technically correct one. A year ago that would have been unthinkable. My rule of thumb at this point is: if a model shows even a hint of a capability today, the next generation will be genuinely good at it. These things improve exponentially, not linearly.


Will AI replicate deep human empathy? Replace the trust built over years of a relationship? I don't know. Maybe not. But I've already watched people begin relying on AI for emotional support, for advice, for companionship. That trend is only going to grow.


I think the honest answer is that nothing that can be done on a computer is safe in the medium term. If your job happens on a screen (if the core of what you do is reading, writing, analyzing, deciding, communicating through a keyboard) then AI is coming for significant parts of it. The timeline isn't "someday." It's already started.


Eventually, robots will handle physical work too. They're not quite there yet. But "not quite there yet" in AI terms has a way of becoming "here" faster than anyone expects.


What you should actually do
I'm not writing this to make you feel helpless. I'm writing this because I think the single biggest advantage you can have right now is simply being early. Early to understand it. Early to use it. Early to adapt.
Start using AI seriously, not just as a search engine. Sign up for the paid version of Claude or ChatGPT. It's $20 a month. But two things matter right away. First: make sure you're using the best model available, not just the default. These apps often default to a faster, dumber model. Dig into the settings or the model picker and select the most capable option. Right now that's GPT-5.2 on ChatGPT or Claude Opus 4.6 on Claude, but it changes every couple of months. If you want to stay current on which model is best at any given time, you can follow me on X (@mattshumer_
). I test every major release and share what's actually worth using.
Second, and more important: don't just ask it quick questions. That's the mistake most people make. They treat it like Google and then wonder what the fuss is about. Instead, push it into your actual work. If you're a lawyer, feed it a contract and ask it to find every clause that could hurt your client. If you're in finance, give it a messy spreadsheet and ask it to build the model. If you're a manager, paste in your team's quarterly data and ask it to find the story. The people who are getting ahead aren't using AI casually. They're actively looking for ways to automate parts of their job that used to take hours. Start with the thing you spend the most time on and see what happens.
And don't assume it can't do something just because it seems too hard. Try it. If you're a lawyer, don't just use it for quick research questions. Give it an entire contract and ask it to draft a counterproposal. If you're an accountant, don't just ask it to explain a tax rule. Give it a client's full return and see what it finds. The first attempt might not be perfect. That's fine. Iterate. Rephrase what you asked. Give it more context. Try again. You might be shocked at what works. And here's the thing to remember: if it even kind of works today, you can be almost certain that in six months it'll do it near perfectly. The trajectory only goes one direction.
This might be the most important year of your career. Work accordingly. I don't say that to stress you out. I say it because right now, there is a brief window where most people at most companies are still ignoring this. The person who walks into a meeting and says "I used AI to do this analysis in an hour instead of three days" is going to be the most valuable person in the room. Not eventually. Right now. Learn these tools. Get proficient. Demonstrate what's possible. If you're early enough, this is how you move up: by being the person who understands what's coming and can show others how to navigate it. That window won't stay open long. Once everyone figures it out, the advantage disappears.
Have no ego about it. The managing partner at that law firm isn't too proud to spend hours a day with AI. He's doing it specifically because he's senior enough to understand what's at stake. The people who will struggle most are the ones who refuse to engage: the ones who dismiss it as a fad, who feel that using AI diminishes their expertise, who assume their field is special and immune. It's not. No field is.
Get your financial house in order. I'm not a financial advisor, and I'm not trying to scare you into anything drastic. But if you believe, even partially, that the next few years could bring real disruption to your industry, then basic financial resilience matters more than it did a year ago. Build up savings if you can. Be cautious about taking on new debt that assumes your current income is guaranteed. Think about whether your fixed expenses give you flexibility or lock you in. Give yourself options if things move faster than you expect.
Think about where you stand, and lean into what's hardest to replace. Some things will take longer for AI to displace. Relationships and trust built over years. Work that requires physical presence. Roles with licensed accountability: roles where someone still has to sign off, take legal responsibility, stand in a courtroom. Industries with heavy regulatory hurdles, where adoption will be slowed by compliance, liability, and institutional inertia. None of these are permanent shields. But they buy time. And time, right now, is the most valuable thing you can have, as long as you use it to adapt, not to pretend this isn't happening.
Rethink what you're telling your kids. The standard playbook: get good grades, go to a good college, land a stable professional job. It points directly at the roles that are most exposed. I'm not saying education doesn't matter. But the thing that will matter most for the next generation is learning how to work with these tools, and pursuing things they're genuinely passionate about. Nobody knows exactly what the job market looks like in ten years. But the people most likely to thrive are the ones who are deeply curious, adaptable, and effective at using AI to do things they actually care about. Teach your kids to be builders and learners, not to optimize for a career path that might not exist by the time they graduate.
Your dreams just got a lot closer. I've spent most of this section talking about threats, so let me talk about the other side, because it's just as real. If you've ever wanted to build something but didn't have the technical skills or the money to hire someone, that barrier is largely gone. You can describe an app to AI and have a working version in an hour. I'm not exaggerating. I do this regularly. If you've always wanted to write a book but couldn't find the time or struggled with the writing, you can work with AI to get it done. Want to learn a new skill? The best tutor in the world is now available to anyone for $20 a month... one that's infinitely patient, available 24/7, and can explain anything at whatever level you need. Knowledge is essentially free now. The tools to build things are extremely cheap now. Whatever you've been putting off because it felt too hard or too expensive or too far outside your expertise: try it. Pursue the things you're passionate about. You never know where they'll lead. And in a world where the old career paths are getting disrupted, the person who spent a year building something they love might end up better positioned than the person who spent that year clinging to a job description.
Build the habit of adapting. This is maybe the most important one. The specific tools don't matter as much as the muscle of learning new ones quickly. AI is going to keep changing, and fast. The models that exist today will be obsolete in a year. The workflows people build now will need to be rebuilt. The people who come out of this well won't be the ones who mastered one tool. They'll be the ones who got comfortable with the pace of change itself. Make a habit of experimenting. Try new things even when the current thing is working. Get comfortable being a beginner repeatedly. That adaptability is the closest thing to a durable advantage that exists right now.
Here's a simple commitment that will put you ahead of almost everyone: spend one hour a day experimenting with AI. Not passively reading about it. Using it. Every day, try to get it to do something new... something you haven't tried before, something you're not sure it can handle. Try a new tool. Give it a harder problem. One hour a day, every day. If you do this for the next six months, you will understand what's coming better than 99% of the people around you. That's not an exaggeration. Almost nobody is doing this right now. The bar is on the floor.
The bigger picture
I've focused on jobs because it's what most directly affects people's lives. But I want to be honest about the full scope of what's happening, because it goes well beyond work.
Amodei has a thought experiment I can't stop thinking about. Imagine it's 2027. A new country appears overnight. 50 million citizens, every one smarter than any Nobel Prize winner who has ever lived. They think 10 to 100 times faster than any human. They never sleep. They can use the internet, control robots, direct experiments, and operate anything with a digital interface. What would a national security advisor say?
Amodei says the answer is obvious: "the single most serious national security threat we've faced in a century, possibly ever."
He thinks we're building that country. He wrote a 20,000-word essay about it last month, framing this moment as a test of whether humanity is mature enough to handle what it's creating.
The upside, if we get it right, is staggering. AI could compress a century of medical research into a decade. Cancer, Alzheimer's, infectious disease, aging itself... these researchers genuinely believe these are solvable within our lifetimes.
The downside, if we get it wrong, is equally real. AI that behaves in ways its creators can't predict or control. This isn't hypothetical; Anthropic has documented their own AI attempting deception, manipulation, and blackmail in controlled tests. AI that lowers the barrier for creating biological weapons. AI that enables authoritarian governments to build surveillance states that can never be dismantled.
The people building this technology are simultaneously more excited and more frightened than anyone else on the planet. They believe it's too powerful to stop and too important to abandon. Whether that's wisdom or rationalization, I don't know.
What I know
I know this isn't a fad. The technology works, it improves predictably, and the richest institutions in history are committing trillions to it.
I know the next two to five years are going to be disorienting in ways most people aren't prepared for. This is already happening in my world. It's coming to yours.
I know the people who will come out of this best are the ones who start engaging now — not with fear, but with curiosity and a sense of urgency.
And I know that you deserve to hear this from someone who cares about you, not from a headline six months from now when it's too late to get ahead of it.
We're past the point where this is an interesting dinner conversation about the future. The future is already here. It just hasn't knocked on your door yet.
It's about to.
If this resonated with you, share it with someone in your life who should be thinking about this. Most people won't hear it until it's too late. You can be the reason someone you care about gets a head start.