Adola: Reducing LLM input tokens by 70%

Adola의 Rose 1은 LLM 입력 토큰을 최대 70%까지 줄이면서도 답변 정확도를 유지하는 문맥 압축 API를 제공한다. 다양한 평가 세트에서 최대 70% 압축에도 불구하고 과학, 수학, 상식 문제에서 정확도 저하가 거의 없음을 입증했다. 이 서비스는 에이전트 트레이스, RAG 검색, 프롬프트 게이트웨이, 지원 코파일럿 등 다양한 AI 워크플로우에서 중복되고 불필요한 문맥을 효과적으로 줄여 비용과 지연을 절감한다. 간단한 API 호출로 기존 모델 공급자와 호환되며, 컴플라이언스 지침을 보호하면서도 프롬프트 크기를 줄이는 데 최적화되어 있다.

https://adola.app/

#llm #contextcompression #api #promptoptimization #costreduction

Adola | Rose 1 prompt compression

Adola runs Rose 1, a fast compression model for production LLM systems.

Show HN: Tokid – Token-native IDs for LLM-facing systems

Tokid는 LLM과 상호작용하는 시스템에서 토큰 비용을 줄이기 위해 설계된 토큰-네이티브 식별자 포맷과 SDK 세트입니다. UUID, ULID 등 기존 ID 체계와 달리, Tokid는 프롬프트 내 토큰 비용 최적화에 중점을 두며, 프롬프트, 전송, 내구성 있는 외부 형태의 세 가지 렌더링 방식을 제공합니다. 주로 에이전트, 워크플로우, 도구 호출 API, 로그 및 디버깅 요약 등 LLM 컨텍스트에 ID가 자주 등장하는 경우에 적합합니다. 현재 JavaScript, Python, Go, Rust, Java/Kotlin, C#용 SDK가 알파 버전으로 공개되어 있으며, OpenAI 기반 프로필을 지원합니다.

https://github.com/Tetra-Research/tokid

#llm #tokenization #sdk #identifier #promptoptimization

fly51fly (@fly51fly)

대규모 언어모델의 추론 효율을 높이기 위한 토큰 효율적 추론 연구입니다. 규제된 프롬프트 최적화를 통해 적은 토큰으로 더 나은 reasoning을 목표로 하며, LLM 비용 절감과 성능 최적화에 유용한 접근입니다.

https://x.com/fly51fly/status/2045253866334343298

#llm #promptoptimization #tokenefficiency #reasoning #research

fly51fly (@fly51fly) on X

[CL] CROP: Token-Efficient Reasoning in Large Language Models via Regularized Prompt Optimization D Shah, S Badhe, N Kathrotia, P Tiwari [Google LLC & Purdue University] (2026) https://t.co/8SM2FvnawP

X (formerly Twitter)

fly51fly (@fly51fly)

생물학적 탐색 기법을 활용해 고전 중국어 기반의 jailbreak 프롬프트를 최적화하는 연구입니다. 특이한 언어 환경에서도 LLM 우회 공격이 가능함을 보여주며, 프롬프트 보안과 안전성 평가에 중요한 의미가 있습니다.

https://x.com/fly51fly/status/2038024453985288584

#jailbreak #promptoptimization #llmsecurity #research #bioinspired

fly51fly (@fly51fly) on X

[CL] Obscure but Effective: Classical Chinese Jailbreak Prompt Optimization via Bio-Inspired Search X Huang, S Qin, X Jia, R Duan… [Nanyang Technological University & Northeast University & Renmin University of China] (2026) https://t.co/t0b3EuX1iH

X (formerly Twitter)

Here’s a solid example prompt:
“Create four responses for a customer angry about late package delivery. Each reply should include 1) a genuine apology 2) a brief reason for the delay 3) two realistic solutions we can offer.”

#AICustomerSupport #DigitalTransformation #BusinessAutomation #CustomerExperience #TechSolutions #PromptOptimization #RefundPolicyAI #EmpatheticAI #ShippingDelaySolutions #CustomerServicePrompts (4/4)

Try this quick test. Use a prompt like Write a client email covering Q3 goals, risks, and deadlines. Run it normally first. Then add Temperature=0.3 before the same prompt. Compare both outputs.

Use low temperature for clear, focused answers. Save high temperature for creative tasks like idea generation. You'll get better results faster.

#AIControl #AIProductivity #NeuralNetworks #PromptOptimization #AITuning #ChatGPTTips #TechTips #CareerAdvice #DigitalTransformation #FutureOfWork (2/2)

Engineer Verbeek discovered a hidden prompt redundancy that was burning tokens and compute. By trimming the system prompt, his team now saves $20 M a year in AI costs. A reminder that even tiny prompt tweaks can slash token usage and boost open‑source efficiency. Read how a simple fix turned into massive savings. #AI #PromptOptimization #ComputeSavings #Verbeek

🔗 https://aidailypost.com/news/engineer-verbeek-saves-usd-20-million-annually-after-mother-flags

Dùng AI tốn bao nhiêu điện, nước và RAM? Thử ngay công cụ "Think Before You Prompt" để ước tính tài nguyên tiêu thụ từ câu hỏi của bạn! Nhập prompt, hệ thống sẽ tính toán dựa trên nghiên cứu khoa học và so sánh với thực tế. Giao diện 3D trực quan, hữu ích cho ai hay nhập văn bản dài vào LLM. Đóng góp ý kiến để cải thiện dự án! #AIEfficiency #GreenAI #PromptOptimization #TríTuệNhânTạo #TiếtKiệmNăngLượng

https://www.reddit.com/r/SideProject/comments/1q5555s/think_before_you_prompt_electricity_wat

Ứng dụng phân tích prompt miễn phí, chạy offline giúp tối ưu hóa việc sử dụng token LLM. Phân tích chất lượng prompt trước khi gọi API, từ chối prompt kém chất lượng để tiết kiệm token. Mã nguồn mở, hoạt động không cần internet. #AIAnalysis #PromptOptimization #OpenSource #VietnameseAI #TốiƯuPrompt #MãNguồnMở

https://www.reddit.com/r/SideProject/comments/1njfxa7/created_a_a_prompttext_analysis_app_that_used/