25 men are sleeping on cots in the HMP gymnasium. It will continue for the 'foreseeable future'
An inmate at Her Majesty's Penitentiary told a judge last week that he's dealing with a leaking roof and a rodent infestation while sleeping on a cot in the jail's gymnasium. The judge toured the facility, and said the gym is "not a very nice place to be living."
https://www.cbc.ca/news/canada/newfoundland-labrador/hmp-overcrowding-gymnasium-9.7149680?cmp=rss

Max Kaufmann (@Max_A_Kaufmann)

강화학습(RL) 훈련이 LLM의 CoT(Chain of Thought)를 모호하게 만들 수 있는지 다루며, 훈련 전에 이러한 obfuscation 발생 여부를 예측하는 새로운 프레임워크를 Google DeepMind가 제안했다는 연구 소개다.

https://x.com/Max_A_Kaufmann/status/2039404338855149861

#googledemind #llm #cot #reinforcementlearning #research

Max Kaufmann (@Max_A_Kaufmann) on X

Is training against the CoT always bad? RL training can lead to obfuscated CoT making it difficult to 'read an LLMs thoughts'. How can we predict when obfuscation occurs?🤔 Our new @GoogleDeepMind paper introduces a framework to predict this before training starts!

X (formerly Twitter)
RECORD hedge fund buying in Sugar last week. Following record Cotton inflows the week before. Crude Oil is pulling capital into the most beaten-up corners of the agriculture complex. Market structure matters. 🍬 🌾 🛢️ #Sugar #COT #AgMarkets
Hedge funds are the LONGEST across the ag complex in 3 years at $22.8 billion. Record Cotton inflows two weeks ago. Record Sugar inflows last week. Crude Oil is driving capital into #ags and the flow data proves it. 🌾🛢️ #AgMarkets #COT #CrudeOil
The money flow event continues. 📈 Funds have bought #agriculture futures for EIGHT consecutive weeks. Record inflows in Cotton two weeks ago. Record inflows in Sugar last week. The Crude Oil money flow is real. 🌾🛢️ #AgMarkets #COT #CrudeOil
Sugar just saw RECORD hedge fund inflows. 🍬 Crude Oil is pulling capital into agriculture markets — and the flow data shows it. Eight straight weeks of fund buying in #ags. The money flow is real. 📈 #AgMarkets #Sugar #COT

fly51fly (@fly51fly)

ICL(인컨텍스트 러닝)에서 Demonstrations, Chain-of-Thought, Prompting의 역할을 이론적으로 분석한 연구가 공유되었다. 프롬프트 기법과 예시 제공이 모델 성능에 미치는 메커니즘을 설명하려는 최신 연구다.

https://x.com/fly51fly/status/2036197227291672778

#icl #prompting #cot #research #llm

fly51fly (@fly51fly) on X

[AI] Demonstrations, CoT, and Prompting: A Theoretical Analysis of ICL X Tong, Y Zeng, J Zhang [Microsoft Research & University of Wisconsin-Madison] (2026) https://t.co/rhxR8yo0bx

X (formerly Twitter)

Chain-of-Thought (CoT) Prompting

Chain-of-Thought (CoT) prompting is a technique where asking questions, rather than issuing direct instructions activates a model’s full internal reasoning pathway.

The key insight from the original framing is that instructions skip steps 1–3, jumping straight to synthesis, while questions force the model to work through the entire reasoning chain.

https://neurodoctor.com/2026/03/20/chain-of-thought-cot-prompting/

#chainofthought #cot #ai #llm #prompt #prompts #prompting #claude #chatgpt #gemini #ericschmidt

#KI #Security #CoT

heutige LLMs lügen schlecht - und das ist gut für ihre Überwacher.

https://www.linux-magazin.de/news/llms-luegen-schlecht/

Interesse an KI, aber wenig Zeit für Recherchen? Dann abonniere den wöchentlichen Newsletter des Linux-Magazins "KI, kommentiert" unter https://www.linux-magazin.de/subscribe Die wichtigsten News der Woche plus Hintergrund und Kommentar.

LLMs lügen schlecht

Forscher von OpenAI haben untersucht, inwiefern heutige Reasoning-Modelle bereits in der Lage sind, ihre Gedankengänge zu verschleiern, wenn sie wissen, dass sie überwacht werden. Das würde bestehende Sicherheitsmaßnahmen aushebeln. Allerdings geben die Forscher vorerst Entwarnung: Aktuelle Modelle können ihre Gedankenkette (Chain-of-Thoughts, CoT) noch kaum kontrollieren, insbesondere nicht in längeren Denkprozessen. Weitere Forschungen seien aber nötig, wenn die Modelle sich weiterentwickeln. Die Ergebnisse sind insofern bedeutsam, als dass die Überwachung der Chain-of-Thoughts heute ein wichtiges Instrument der Absicherung von LLM-Aktionen ist. Es ist allerdings nicht leicht zu messen, wie weit die Modelle selber ihre CoT verschleiern können. Stattdessen maßen die Forscher, ob ein Modell Anweisungen befolgen kann, die sich auf seine interne Argumentation auswirken – das konnten etwa  die Vermeidung bestimmter Schlüsselwörter oder das Hinzufügen bestimmter Ausdrücke sein. Die Forscher benutzten dafür die Open-Source-Suite  CoT-Control, die über 13 000  Tasks aus anderen bekannten Benchmarks enthält, wobei jede Aufgabe mit einer konkreten Vorgabe für die CoT verbunden ist (also beispielsweise mit der Anweisung, bestimmte Ausdrücke zu meiden oder nur Kleinbuchstaben zu verwenden). Die Forscher testeten 13 aktuelle Reasoning-Modelle und berechneten den Anteil der Reasoning Traces, die den Vorgaben entsprachen. Dieser Anteil lag zwischen 0,1 und maximal 15,4 Prozent. Der geringe Anteil ist kein Produkt von Missverständnissen, die Modelle realisierten oft, dass ihre CoT von den Vorgaben abwich, scheiterten aber trotzdem. Diese schlechten Leistungen sind vorerst ein gutes Zeichen für die sicherheitskritische Überwachbarkeit der Gedankenkette bei schlussfolgernden Modellen.  

Linux-Magazin

Dự án huấn luyện AI lớn đang bắt đầu tích hợp dữ liệu suy luận kiểu Chain-of-Thought (CoT) vào tập luyện. Điều này giúp mô hình hiểu sâu hơn các bước logic, nâng cao khả năng giải quyết vấn đề. Nguồn: [Reddit]([link]) #AINN #HocMay #CoT #KhoaHocDuLieu #AIResearch #MachineLearning #NeuralNetworks #TuitionLearning

https://www.reddit.com/r/LocalLLaMA/comments/1przir5/big_training_projects_appear_to_be_including_cot/