Peter Gostev (@petergostev)

SemiAnalysis 창업자 @dylan522p가 자신들의 Claude Code 관련 현재 연간 러너레이트(run rate)가 500만 달러라고 공개했습니다. 이는 Claude Code의 상업적 채택과 매출 가능성을 보여주는 지표로, AI 툴의 사업화 상황과 수요를 가늠하게 하는 주목할 만한 비즈니스 신호입니다.

https://x.com/petergostev/status/2030413046737244554

#anthropic #claudecode #aibusiness #semianalysis

Peter Gostev (@petergostev) on X

SemiAnalysis founder @dylan522p said that their current annual Claude Code run rate is $5m. What is he cooking?

X (formerly Twitter)
https://www.walknews.com/907972/ ファーウェイ、NVIDIA対抗の新AI半導体「Ascend 910D」開発 米国の対中規制下で自給目指す 先端半導体自国開発へ活路、米中技術覇権の行方は(1/2) | JBpress (ジェイビープレス) #Ascend #Blackwell #isMedia #JBpress #NVIDIA #SemiAnalysis #SMIC #TSMC #UnitedStatesOfAmerica #US #USA #アメリカ合衆国 #ファーウェイ #半導体 #対中規制 #日本ビジネスプレス #米国
ファーウェイ、NVIDIA対抗の新AI半導体「Ascend 910D」開発 米国の対中規制下で自給目指す 先端半導体自国開発へ活路、米中技術覇権の行方は(1/2) | JBpress (ジェイビープレス)

先端半導体自国開発へ活路、米中技術覇権の行方は シェア5 (写真:ロイター/アフロ) 中国通信機器大手の華為技術(ファーウェイ)が、AI(人工知能)向け半導体の最新・最高性能モデル「昇騰(Ascend)910D」を開発し、近くテストを開始することが分かった。米半導体大手エヌビディア(NVIDIA)のハイエンド製品に対抗し、米国の厳しい輸出規制下で技術的自立と安定供給を目指している。米ウォール・ストリート・ジャーナル(WSJ)が関係者の話として報じた。英ロイター通信もWSJの記事を引用して伝えた。新チップ「910D」投入へ、NVIDIA「H100」超え目指す WSJによると、ファーウェイはAscend 910Dの技術的な実現可能性(フィージビリティ)を検証するため、テストの実施について中国のテクノロジー企業数社に打診している。早ければ2025年5月下旬にも、最初のサンプルチップを用意できる見通しだ。開発目標は、AIの学習(トレーニング)で広く利用されるエヌビディアの半導体「H100」(2022年発売)を超える性能を実現することだ。 開発の背景には、米政府による先端半導体技術の対中輸出規制の強化がある。米政府は中国の技術開発、特に軍事転用につながる進歩を警戒しており、エヌビディアの最新旗艦モデル「B200」や、発売前に輸出が禁止されたH100、ライセンスなしで中国向けに販売できる最先端品だった「H20」など、高性能AI半導体の対中輸出を厳しく制限している。 ファーウェイはこうした規制下で、国内のAI開発企業が必要とする高性能半導体を自前で安定供給することを目指している。米国の規制は、結果的にファーウェイのような中国企業に、市場拡大の機会を与えている。WSJによれば、エヌビディアの「H20」への輸出規制強化を受け、一部の中国顧客は、ファーウェイ製既存半導体である「Ascend 910B」や、量産出荷が計画されている「Ascend 910C」の追加発注を検討している。ファーウェイは2025年に、これらの製品を国有通信企業や、動画投稿アプリ「TikTok」の親会社である北京字節跳動科技(バイトダンス)などに80万基以上出荷する見込みだ。

WALK NEWS

Trening modelu DeepSeek nie kosztował 6 mln dolarów, lecz 1,3 miliarda dolarów – raport SemiAnalysis

Chińska sztuczna inteligencja: DeepSeek mocno zamieszała w branży AI. Jednym z szokujących twierdzeń chińskich twórców tego modelu są deklarowane przez nich znikome, w stosunku do innych modeli AI, koszty szkolenia. Szkoda tylko, że podane kwoty mocno rozmijają się z prawdopodobnym stanem faktycznym.

SemiAnalysis to niezależna firma badawcza i analityczna specjalizująca się w branży półprzewodników i sztucznej inteligencji (AI). Oferuje dogłębną analizę całego łańcucha dostaw, od produkcji półprzewodników po najnowsze modele AI, oprogramowanie i infrastrukturę. I właśnie eksperci z tej organizacji wzięli na warsztat analizę faktycznych kosztów treningu najnowszego chińskiego modelu sztucznej inteligencji.

Wnioski? Pokrywają się z przypuszczeniami tych, którzy od początku ogłoszenia DeepSeek przez chiński podmiot wątpili w deklarowane przez twórców koszty treningu nowego modelu. Przypomnijmy, że Chińczycy deklarowali iż wytrenowanie DeepSeek kosztowało ok. 6 mln dolarów. Eksperci SemiAnalysis twierdzą, że to tak, jakby wskazać część materiałów tworzących jakiś produkt i przypisać ją jako całkowity koszt wytworzenia danego produktu. Kwota 6 mln dolarów to ich zdaniem koszt wstępnego szkolenia, co jednocześnie stanowi bardzo wąską część całkowitego kosztu budowy tak rozbudowanego modelu AI jak DeepSeek.

Przede wszystkim eksperci zwracają uwagę, że DeepSeek to nie jest firma istniejąca od wczoraj, lecz organizacja, która przez lata gromadziła środki i potencjał do rozwijania prowadzonych przez nią działań. Kilka lat temu kontrola eksportu półprzewodników ze Stanów Zjednoczonych była znacznie mniej szczelna niż obecnie, to najprawdopodobniej pozwoliło chińskiemu podmiotowi zgromadzić potencjał obliczeniowy, którego koszt całkowicie pominięto w owych deklarowanych przez Chińczyków kosztach szkolenia.

Zdaniem SemiAnalysis wykluczono ważne elementy układanki, takie jak badania i rozwój oraz TCO (całkowity koszt posiadania – Total Cost of Ownership) samego sprzętu. Dla porównania, szkolenie Claude 3.5 Sonnet, modelu zbudowanego przez Anthropic, kosztowało dziesiątki milionów USD, a gdyby to był całkowity koszt potrzebny Anthropic, firma ta nie pozyskałaby miliardów dolarów inwestycji od Google i dziesiątek miliardów od Amazon. Sam trening to nie wszystko, budowa AI to również eksperymenty, opracowywanie nowych architektur, gromadzenie i czyszczenie danych przeznaczonych do treningu sztucznej inteligencji, koszty utrzymania mocy obliczeniowej, energii, lokalizacji, pensje dla pracowników i cała masa innych elementów stanowiących faktyczny, całkowity koszt budowy danego rozwiązania.

SemiAnalysis zwraca uwagę na jeszcze jedną istotną rzecz: DeepSeek V3 jest ich zdaniem niewątpliwie imponującym pod wieloma względami modelem, porównywanym np. do GPT-4o od OpenAI. Jednak trzeba pamiętać, że wykorzystywany dziś GPT-4o to model, który został udostępniony w maju 2024 roku, ponad pół roku temu. W rozwoju sztucznej inteligencji to dużo czasu, biorąc pod uwagę tempo tego rozwoju. Dlatego dobrze jest zachować odpowiednią perspektywę.

Jakoś nikt specjalnie nie zachwyca się istniejącymi już dziś modelami, które są w stanie działać lokalnie i mogą być wytrenowane i uruchomione nawet na dobrze wyposażonym laptopie, a oferują potencjał porównywalny z GPT-3, modelem, którego koszt treningu wymagał całych centrów danych, olbrzymiej mocy i znacznych nakładów. Finalnie SemiAnalysis oszacowało faktyczny koszt wytworzenia DeepSeek na poziomie ok. 1,6 miliarda dolarów. To trochę większa kwota od deklarowanej przez Chińczyków, prawda?

Wszystkich zainteresowanych odsyłam do źródła, raportu SemiAnalysis, który w znacznie bardziej szczegółowy sposób wyjaśnia meandry związane z faktycznymi kosztami treningu modeli zależnie od ich efektów działania.

#AI #DeepSeek #kosztTreninguAI #news #SemiAnalysis #sztucznaInteligencja

DeepSeek Debates: Chinese Leadership On Cost, True Training Cost, Closed Model Margin Impacts

The DeepSeek Narrative Takes the World by Storm DeepSeek took the world by storm. For the last week, DeepSeek has been the only topic that anyone in the world wants to talk about. As it currently s…

SemiAnalysis

An in-depth analysis from SemiAnalysis argues that AI scaling laws have remained robust through innovations like reasoning models and synthetic data, questioning the idea of a wall of diminishing returns. #ai #genai #llms #openai #semianalysis @semianalysis

https://winbuzzer.com/2024/12/12/semianalysis-no-ai-scaling-isnt-slowing-down-xcxwbn/

Always impressed with the technical details in articles on the semianalysis website, this time about "Scaling Laws – O1 Pro Architecture, Reasoning Training Infrastructure, Orion and Claude 3.5 Opus “Failures”
https://semianalysis.com/2024/12/11/scaling-laws-o1-pro-architecture-reasoning-infrastructure-orion-and-claude-3-5-opus-failures/
#infrastructure #architecture #AI #semianalysis #ICT
Scaling Laws – O1 Pro Architecture, Reasoning Training Infrastructure, Orion and Claude 3.5 Opus “Failures”

There has been an increasing amount of fear, uncertainty and doubt (FUD) regarding AI Scaling laws. A cavalcade of part-time AI industry prognosticators have latched on to any bearish narrative the…

SemiAnalysis

Empfehung: SemiAnalysis.com -> Newsletter, wie üblich Freemium (die ersten paar Seiten gibts umsonst. Ich lesen nur diese.)

#semicon #semianalysis #furtherreading

Great blog with amazing in-depth articles on technical subjects with regard to AI and IT.
https://www.semianalysis.com/
#IT #ICT #AI #semianalysis
SemiAnalysis | Dylan Patel | Substack

Bridging the gap between the world's most important industry, semiconductors, and business. Click to read SemiAnalysis, by Dylan Patel, a Substack publication with hundreds of thousands of subscribers.

"The Memory Wall: Past, Present, and Future of DRAM" , excellent and detailled article on DRAM, i learned a lot 😀
Interesting that it doesn't scale anymore, in this time of AI, that must give some headaches.
https://www.semianalysis.com/p/the-memory-wall
#ICT #memory #RAM #DRAM #scaling #IT #semianalysis
The Memory Wall: Past, Present, and Future of DRAM

Winners & Losers in the 3D DRAM Revolution

SemiAnalysis

#Google #AI #インフラストラクチャ の優位性: #マイクロアーキテクチャ よりも #システム が重要」: semianalysis

Google の AI 戦略について、詳しく解説しています。私はとてもついていけませんが、紹介します。

AIの分野で、本当に #Microsoft が勝つのか?少々疑問になって来ました。

https://www.semianalysis.com/p/google-ai-infrastructure-supremacy

#prattohome #semianalysis

Google AI Infrastructure Supremacy: Systems Matter More Than Microarchitecture

From DLRM to LLM, internal workloads win, but how does Google fare in external workloads?

SemiAnalysis
#WorthReading from #SemiAnalysis
This is from mid last year but gets into #GPUrich vs #GPUPoor, what that means for technology/market development and Google vs NVIDIA.
https://bit.ly/4annZkS
Google Gemini Eats The World – Gemini Smashes GPT-4 By 5X, The GPU-Poors

Compute Resources That Make Everyone Look GPU-Poor

SemiAnalysis