Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
No Result
View All Result

Por qué tu cerebro podría ser el próximo plan para la IA más inteligente

byKerem Gülen
1 abril 2025
in Research
Home Research
Share on FacebookShare on Twitter

La inteligencia artificial ha dominado muchas cosas: escribir poemas, conducir autos, incluso predecir su próxima observación de atracones. Pero hay una cosa con la que todavía lucha: saber cuándo crecer, cuándo olvidar y cómo seguir evolucionando con el tiempo. En otras palabras, la IA no hace neuroplasticidad. Todavía.

Ese es el argumento que un grupo de investigadores está haciendo en un nuevo papel Eso se inspira directamente de la biología humana. Proponen un replanteamiento radical de cómo aprenden las redes neuronales, no solo ajustando sus pesos o expandiendo los parámetros, sino al tomar prestados trucos de cómo el cerebro se vuelve a cablear: a través de la neurogénesis (creciendo nuevas neuronas), neuropoptosis (matando estratégicamente a los demás) y plasticidad (haciendo ambas cosas, adaptativamente). Y si sus ideas se dan cuenta, la próxima generación de IA podría comportarse menos como una calculadora y más como, bueno, usted.

¿Por qué importa esto ahora?

Las redes neuronales modernas, especialmente los modelos de idiomas grandes, son más potentes que nunca, pero también rígidas. Una vez entrenado, sus arquitecturas permanecen fijas. Se pueden agregar nuevos datos, pero el esqueleto del modelo permanece sin cambios. En contraste, el cerebro humano se actualiza constantemente. Cultivamos nuevas neuronas, podamos las sin ayuda y fortalecemos las conexiones basadas en la experiencia. Así es como aprendemos nuevas habilidades sin olvidar las viejas y recuperarnos de los contratiempos.

Los investigadores argumentan que esta flexibilidad biológica podría ser exactamente lo que la IA necesita, especialmente para las tareas a largo plazo del mundo real. Imagine un chatbot de servicio al cliente que puede evolucionar con nuevas líneas de productos o una IA médica que se vuelve más inteligente con cada paciente que ve. Estos sistemas no solo deberían volver a entrenar, deben volver a cablear.

The Dropin Revolution: dejar que la IA crezca nuevas neuronas

Si ha oído hablar de abandono, el método de regularización popular donde las neuronas aleatorias se desactivan durante el entrenamiento para evitar el sobreajuste, entonces apreciará el encanto de su inverso: «Dropin».

Dropin es un término que los investigadores acuñaron para describir el equivalente artificial de la neurogénesis. La idea es simple: cuando una red neuronal golpea un muro en el aprendizaje, ¿por qué no darle más capacidad? Así como el cerebro crece nuevas neuronas en respuesta a los estímulos, un modelo puede generar nuevas neuronas y conexiones cuando lucha con una tarea. Piense en ello como AI con un crecimiento de crecimiento.

El documento incluso propone un algoritmo: si la función de pérdida del modelo se estanca (lo que significa que está aprendiendo poco), Dropin se activa, agregando neuronas frescas selectivamente. Estas neuronas no solo son arrojadas a ciegas. Se colocan donde el modelo muestra signos de alto estrés o bajo rendimiento. En esencia, la red tiene espacio para respirar y adaptarse.

Y a veces, la IA necesita olvidar

Tan crucial como el crecimiento es la poda. La neuroapoptosis, el botón de autodestrucción del cerebro para las neuronas de bajo rendimiento, también tiene sus análogos digitales. Descarga es uno. La poda estructural, donde las neuronas o conexiones enteras se eliminan permanentemente, es otra.

Los investigadores detallan cómo varias estrategias de deserción reflejan este olvido selectivo. Desde la deserción adaptativa (que cambia la tasa de deserción basada en la utilidad de una neurona) hasta formas avanzadas como el abandono concreto o variacional (que aprenden qué neuronas matar durante el entrenamiento), el mundo de la IA ya está a la mitad de la apoptosis imitando.

Y poda estructural? Es aún más hardcore. Una vez que una neurona se considera inútil, se ha ido. Esto no es solo bueno para la eficiencia: también puede reducir el sobreajuste, acelerar la inferencia y ahorrar energía. Pero la poda debe hacerse con precisión quirúrgica. Exage y corre el riesgo de «colapso de capas», un modelo que olvida demasiado para funcionar.


Esta IA aprende a hacer clic mejor que tú


Aquí es donde las cosas se ponen emocionantes. Los cerebros reales no solo crecen o podan, sino que hacen ambas cosas, todo el tiempo, en respuesta al aprendizaje. Eso es neuroplasticidad. Y la IA podría usar una dosis de ella.

Los investigadores proponen combinar Dropin y abandono en un bucle continuo. A medida que los modelos reciben nuevos datos o enfrentan nuevas tareas, se expanden o contraen dinámicamente, al igual que su cerebro adaptándose a un nuevo idioma o recuperarse de una lesión. Incluso presentan un algoritmo que utiliza cambios en la tasa de aprendizaje y los comentarios del modelo para decidir cuándo crecer, cuándo encogerse y cuándo quedarse.

Esto no es ciencia ficción. Las ideas similares ya se están avanzando en la IA: ajuste fino basado en adaptadores como Lora, expansión de la capa dinámica en LLMS y los marcos de aprendizaje continuo apuntan en esta dirección. Pero lo que falta es un marco unificador que vincula estos métodos a la biología, y sistematiza cuándo y cómo adaptarse.

Las redes dinámicas no son fáciles de administrar. Agregar y eliminar las neuronas durante el entrenamiento complica la depuración, hace que el rastreo de errores sea más difícil y arriesga la inestabilidad. Y a diferencia de los cerebros biológicos, que tienen millones de años de evolución de su lado, las redes neuronales tienen solo unas pocas líneas de código y algunas heurísticas.

También está el problema de medir el éxito. ¿Cuándo es útil una nueva neurona? ¿Cuándo es solo ruido? ¿Y cómo equilibra el aprendizaje a corto plazo con la memoria a largo plazo? ¿Un desafío que incluso los humanos no se han resuelto por completo?

Un nuevo plan para AI y para nosotros

A pesar de los obstáculos, la visión es convincente. AI que no solo aprende, evoluciona. AI que sabe cuándo olvidar. Eso se expande cuando se desafía. Eso se adapta como un sistema vivo, no una base de código congelado.

Además, el circuito de retroalimentación entre la neurociencia y la IA podría ir en ambos sentidos. Cuanto más construamos modelos inspirados en el cerebro, más podríamos aprender sobre cómo funcionan nuestras propias mentes. Y algún día, la IA podría ayudarnos a desbloquear secretos más profundos de cognición, memoria y adaptación.

Entonces, la próxima vez que olvide dónde dejó sus llaves, o aprende una nueva habilidad, recuerde: su cerebro está haciendo lo que la IA más inteligente de hoy está comenzando a comprender. Y si los investigadores se salen con la suya, su cerebro de plástico olvidadizo y adaptable podría ser el estándar de oro para las máquinas del mañana.


Crédito de imagen destacado

Tags: AIgirarPresentado

Related Posts

Los científicos descubren más de 17.000 nuevas especies

Los científicos descubren más de 17.000 nuevas especies

26 diciembre 2025
GPT-5.2 supera la base de referencia de doctorado de expertos con una puntuación científica del 92 %

GPT-5.2 supera la base de referencia de doctorado de expertos con una puntuación científica del 92 %

24 diciembre 2025
Por qué DIG AI es la IA maliciosa más peligrosa de 2025

Por qué DIG AI es la IA maliciosa más peligrosa de 2025

23 diciembre 2025
Las baterías de iones de sodio se acercan más a la carga rápida a medida que los investigadores resuelven los cuellos de botella de los iones

Las baterías de iones de sodio se acercan más a la carga rápida a medida que los investigadores resuelven los cuellos de botella de los iones

19 diciembre 2025
Atrapando el fantasma de los 2 billones de dólares: la IA está reescribiendo las reglas de los delitos financieros

Atrapando el fantasma de los 2 billones de dólares: la IA está reescribiendo las reglas de los delitos financieros

15 diciembre 2025
Los LLM muestran distintos sesgos culturales en las indicaciones en inglés y en chino

Los LLM muestran distintos sesgos culturales en las indicaciones en inglés y en chino

15 diciembre 2025

Recent Posts

  • Qwen Code v0.5.0 de Alibaba transforma la terminal en un ecosistema de desarrollo completo
  • Bethesda apunta a 600 horas de juego para Fallout 5
  • ASUS defiende el puerto de alimentación HyperX RTX 5090 desalineado como "diseño intencional"
  • CUDA Tile IR de código abierto de NVIDIA en GitHub
  • El CEO de MicroStrategy dice los fundamentos de Bitcoin "no podría ser mejor"

Recent Comments

No hay comentarios que mostrar.
Dataconomy ES

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.