Agricultura sostenible: mutar los cultivos podría hacer que generen su propio nitrógeno orgánico. Se disminuiría el uso de fertilizantes, la emisión gases de efecto invernadero, la contaminación de acuíferos, y los costes económicos y energéticos.
https://wwwhatsnew.com/2025/12/11/una-pequena-mutacion-que-podria-cambiar-la-agricultura-para-siempre/

Una pequeña mutación que podría cambiar la agricultura para siempre
Los guisantes, los frijoles y el trébol comparten un superpoder que los diferencia del maíz, el trigo y el arroz: no dependen de fertilizantes nitrogenados para crecer. Esta capacidad les permite formar alianzas naturales con bacterias capaces de transformar el nitrógeno del aire en un nutriente aprovechable para la planta. Hasta ahora, esta simbiosis parecía
WWWhat's newUn tutorial completo sobre el análisis
#bioinformático de RNA-seq (control de calidad, mapeo, recuento, expresión diferencial y visualización) combinando
#R #rstats y
#bash.
#programming https://github.com/Thozhar-suriya/Bulk_RNA-Seq_Analysis-
GitHub - Thozhar-suriya/Bulk_RNA-Seq_Analysis-
Contribute to Thozhar-suriya/Bulk_RNA-Seq_Analysis- development by creating an account on GitHub.
GitHubLos modelos de IA no han alcanzado aún una conciencia o inteligencia similar a la humana, ni tampoco usan el lenguaje de la misma manera que lo hacen las personas. Pero la estrategia que siguen para resolver problemas complejos se parece cada vez más al pensamiento humano.
https://wwwhatsnew.com/2025/11/27/el-costo-de-pensar-cuando-la-inteligencia-artificial-se-parece-al-cerebro-humano/

El «costo de pensar»: cuando la inteligencia artificial se parece al cerebro humano
A medida que los modelos de lenguaje han ido evolucionando, su capacidad para realizar tareas complejas ha crecido de forma notable. Desde escribir textos coherentes hasta resolver problemas matemáticos, su progreso ha sido vertiginoso. Pero una nueva investigación del Instituto McGovern para la Investigación Cerebral del MIT revela algo todavía más llamativo: los modelos de
WWWhat's newPara mejorar los
#LLM de la IA generativa, llegan los
#LRM (large reasoning models) con la idea de mejorar la calidad de las respuestas y evitar los desvaríos. Aunque todavía no es una inteligencia como la humana.
https://www.linkedin.com/pulse/what-large-reasoning-models-how-think-alex-wang-eujnc/
What Are Large Reasoning Models? And How They “Think”?
It might sound technical, but the idea behind Large Reasoning Models (LRMs) is actually pretty simple. Here, “reasoning” doesn’t mean the AI is thinking like a human, and it’s definitely not about AGI.
This article shows how duckplyr can be used instead of dplyr, providing very fast results with very huge datasets.
#rstats #programming https://tidyverse.org/blog/2025/06/duckplyr-1-1-0/
duckplyr fully joins the tidyverse!
duckplyr 1.1.0 is on CRAN! A drop-in replacement for dplyr, powered by DuckDB for speed. It is the most dplyr-like of dplyr backends.
La realidad siempre supera la ficción
La inteligencia artificial nos va descubriendo cuál es el lenguaje de la vida. Dicho de otro modo, qué significados tienen las secuencias de nucleótidos y de aminoácidos. Os aseguro que es flipante.
https://www.rna-seqblog.com/understanding-gene-llms-how-large-language-models-are-learning-the-language-of-life/

Understanding Gene-LLMs: how large language models are learning the language of life | RNA-Seq Blog
RNA sequencing and AI-powered Gene-LLMs are revealing the hidden grammar of the genome, advancing discoveries in gene regulation, diagnostics, and personalized medicine...
RNA-Seq Blog | Transcriptome Research & Industry News