6484
That's just link aggregator of everything I consider interesting, especially DL and topological condensed matter physics. @EvgeniyZh
Chiral gapped states are universally non-topological https://arxiv.org/abs/2510.23720
Читать полностью…
Out-of-distribution Tests Reveal Compositionality in Chess Transformers https://arxiv.org/abs/2510.20783
Читать полностью…
Non-invertible bosonic chiral symmetry on the lattice https://arxiv.org/abs/2510.17969
Читать полностью…
VISTA: A Test-Time Self-Improving Video Generation Agent https://arxiv.org/abs/2510.15831
Читать полностью…
Discovering state-of-the-art reinforcement learning algorithms https://www.nature.com/articles/s41586-025-09761-x
Читать полностью…
Quantum Reinforcement Learning: Recent Advances and Future Directions https://arxiv.org/abs/2510.14595
Читать полностью…
Evaluating Long Context (Reasoning) Ability https://nrehiew.github.io/blog/long_context/
Читать полностью…
Diffusion Transformers with Representation Autoencoders https://arxiv.org/abs/2510.11690
Читать полностью…
Fractional quantum Hall states under density decoherence https://arxiv.org/abs/2510.08490
Читать полностью…
Unveiling dynamical quantum error correcting codes via non-invertible symmetries https://arxiv.org/abs/2510.09565
Читать полностью…
Can Large Language Models Develop Gambling Addiction? https://arxiv.org/abs/2509.22818
Читать полностью…
Poisoning Attacks on LLMs Require a Near-constant Number of Poison Samples https://arxiv.org/abs/2510.07192
Читать полностью…
Fractional quantum Hall state at ν= 1/2 with energy gap up to 6 K, and possible transition from one- to two-component state https://arxiv.org/abs/2510.03983
Читать полностью…
Utility-Scale Quantum State Preparation: Classical Training using Pauli Path Simulation https://arxiv.org/abs/2510.02428
Читать полностью…
Hilbert: Recursively Building Formal Proofs with Informal Reasoning https://arxiv.org/abs/2509.22819
Читать полностью…
Ну что, поехали. Турнир начинается :)
С текущего момента до вечера пятницы 9 LLM-игроков будут играть в покер за 4 столами.
Смотреть здесь: pokerbattle.ai
Bosonic Laughlin and Moore-Read states from non-Chern flat bands https://arxiv.org/abs/2510.14685
Читать полностью…
StarBench: A Turn-Based RPG Benchmark for Agentic Multimodal Decision-Making and Information Seeking https://arxiv.org/abs/2510.18483
Читать полностью…
ImpossibleBench: Measuring LLMs' Propensity of Exploiting Test Cases https://arxiv.org/abs/2510.20270
Читать полностью…
Bound on entanglement in neural quantum states https://arxiv.org/abs/2510.11797
Читать полностью…
TASI Lectures On Topological Field Theories And Differential Cohomology https://arxiv.org/abs/2510.07408
Читать полностью…
A Formalization of the Generalized Quantum Stein's Lemma in Lean https://arxiv.org/abs/2510.08672
Читать полностью…
SAM 3: Segment Anything with Concepts https://openreview.net/forum?id=r35clVtGzw
Читать полностью…
The wait is over! Microsoft Research is sharing Skala, the new exchange-correlation functional, marking a major milestone in the accuracy/cost trade-off in DFT. Help us learn from your testing so we can improve. Available on Azure AI Foundry and GitHub.
Skala is a neural network-based exchange-correlation functional for density functional theory (DFT), developed by Microsoft Research AI for Science. It leverages deep learning to predict exchange-correlation energies from electron density features, achieving chemical accuracy for atomization energies and strong performance on broad thermochemistry and kinetics benchmarks, all at a computational cost similar to semi-local DFT.
Trained on a large, diverse dataset—including coupled cluster atomization energies and public benchmarks—Skala uses scalable message passing and local layers to learn both local and non-local effects. The model has about 276,000 parameters and matches the accuracy of leading hybrid functionals.
https://labs.ai.azure.com/projects/skala/
https://github.com/microsoft/skala
https://fixupx.com/zhenkirito123/status/1976663920552427619
Читать полностью…
пока научпоперы гуглят, кто такие треги, чтобы потом с умным видом пересказать это на камеру, вы уже можете прочитать пост про IDO1 — фермент, которым треги пользуются для супрессии других Т-клеток.
Про FoxP3 и в целом трег-иммунологию, может, когда-то тоже напишу, но там столько всего сказать можно, что даже не понятно, с чего начинать.
What GPT-OSS leaks about OpenAI's training data (Score: 151+ in 6 hours)
Link: https://readhacker.news/s/6CZNW
Comments: https://readhacker.news/c/6CZNW