New #openaccess publication #SciPost #Physics Core

Interplay of entanglement structures and stabilizer entropy in spin models

Michele Viscardi, Marcello Dalmonte, Alioscia Hamma, Emanuele Tirrito
SciPost Phys. Core 9, 012 (2026)
https://scipost.org/SciPostPhysCore.9.1.012

#UniversityNaplesFederico2 #INFN Napoli #ICTP #SSM
#MUR

Digitalizare, Cloudul Guvernamental și Soft Systems Methodology

Discuția despre digitalizare și Cloudul guvernamental este un cadru excelent pentru a introduce o abordare din gândirea sistemică numită Soft Systems Methodology (prescurtată SSM, traducere: Metodologia Sistemelor Soft). Această abordare, cu o maturitate de peste 30 ani, aplicată deja în mii de proiecte din domeniul IT, dar și în educație, sănătate sau administrația publică.

Gândește critic

fly51fly (@fly51fly)

2026년 발표 논문 'Retrieval-Aware Distillation for Transformer-SSM Hybrids'가 arXiv에 공개되었습니다. 저자 A Bick, E P. Xing, A Gu(소속 CMU)가 참여했으며, 검색(리트리벌) 인식 증류 기법을 Transformer와 SSM 하이브리드 모델에 적용하는 연구입니다. (arXiv 링크 포함)

https://x.com/fly51fly/status/2023159682651820406

#research #distillation #transformer #ssm #arxiv

fly51fly (@fly51fly) on X

[LG] Retrieval-Aware Distillation for Transformer-SSM Hybrids A Bick, E P. Xing, A Gu [CMU] (2026) https://t.co/rV3HvlKkTP

X (formerly Twitter)

Mô hình SSM 46M tham số được đào tạo trên Mac Studio M4 Max với tính toán biên. Kết quả: mô hình học khác biệt và tạo ra văn bản "Tôi sẽ đến... Tôi sẽ nói với bạn". #TríTuệNhânTạo #AI #MôHìnhHọcMáy #StateSpaceModel #SSM #MachineLearning #HọcMáy #EnforcedBistability

https://www.reddit.com/r/LocalLLaMA/comments/1qqu55g/training_a_46m_param_ssm_with_enforced/

Awni Hannun (@awnihannun)

mlx-lm에서 SSMs를 이용해 continuous batching(연속 배칭)을 구현했으며, 64GB M4 Max에서 NVIDIA의 Nemotron Nano 모델을 동시에 실행하는 OpenCode 에이전트 4개를 구동한 기술적 업데이트를 공유함. Nemotron Nano는 MoE와 하이브리드 어텐션을 사용해 작은 머신에 적합하다고 설명됨.

https://x.com/awnihannun/status/2009399942469800431

#ssm #ml #nvidia #nemotronnano

Awni Hannun (@awnihannun) on X

Got continuous batching working with SSMs in mlx-lm. Here's four OpenCode agents simultaneously running Nvidia's Nemotron Nano on 64GB M4 Max. This is a nice model for smaller machines since it's MoE + hybrid attention (small cache).

X (formerly Twitter)

🏥¡Nuevo Hospital Comunitario Arantepacua acerca salud a indígenas en Michoacán!🌟 #HospitalArantepacua #SaludIndigena #Michoacan #SSM #EmergenciasSalud

https://5wredactor.com/nuevo-hospital-comunitario-arantepacua-indigena/

I forgot that the #SSM agent uses #SSL. So, after I ran through writing the hardener for getting rid of un-trusted root CAs (I hadn't yet written the "except these guys" logic), I can no longer get into my #EC2 via SSM:

aws ssm start-session --target i-06643002cbe2ff8df Starting session with SessionId: [email protected] SessionId: [email protected] : ----------ERROR------- Setting up data channel with id [email protected] failed: failed to create websocket for datachannel with error: CreateDataChannel failed with no output or error: createDataChannel request failed: failed to make http client call: Post "https://ssmmessages.us-west-1.amazonaws.com/v1/data-channel/[email protected]": tls: failed to verify certificate: x509: certificate signed by unknown authority
#AWS
#Security
#Automation

Hey, I need help with #AWS #RDS.

I've this #Postgresql #RDS in private subnets.
I want to access it with the #psql cli (or any client really).

I see two ways.
One, which I find easy, with an #EC2 that acts as a #Bastion with #SSM so it remains private but requires a tunnel.
And one with a #RDSProxy exposed via a #NLB which is more involved but requires no tunnel.

Is there any other approach?
Something so obvious I missed it?

Thanks for your time and boosts in advance 🙇

EDIT: solution below

Một người dùng đã tự thiết kế một "SSM head" đơn giản, thay thế cơ chế attention truyền thống trong mô hình GPT. Cơ chế này sử dụng các "slot" để lưu trữ thông tin, lấy cảm hứng từ Mamba/RWKV. Mô hình GPT tích hợp đầu SSM này đã giải thành công phép cộng 24 chữ số chỉ trong 40.000 bước huấn luyện.

#AI #ML #SSM #GPT #AttentionReplacement #MachineLearning #NeuralNetworks

https://www.reddit.com/r/LocalLLaMA/comments/1pamni7/very_low_effort_i_designed_a_simple_ssm_head/