#20230511nn 日本経済新聞 朝刊 #nn

コニカミノルタ、赤字拡大 前期最終 米子会社の減損で

---

2023年3月期の連結最終損益(国際会計基準)が1050億円の赤字(前の期は261億円の赤字)に。コニカミノルタの最終赤字は4期連続。

遺伝子検査の米子会社などで合計1166億円の減損損失を計上した。複合機事業の成長が鈍化するなか、M&Aを通じて収益の柱を育てようとしてきたが、投資回収が難しくなった。

コニカミノルタは #2017y に官民ファンドの産業革新機構(現INCJ)と共同で遺伝子検査を手がける米子会社アンブリー・ジェネティクスを約900億円で買収した。

業績悪化に伴って金融機関とのシンジケートローンに関して財務制限条項に抵触する見込み。

中国が5nmプロセス対応EUV露光装置の試作機を開発か?、中国メディア報道 | TECH+(テックプラス) https://news.mynavi.jp/techplus/article/20230502-2670408/

---

長春光学・精密機械・物理研究所は、すでに #2002y には中国初のEUVリソグラフィ原理確認装置を開発、0.75nm RMSよりも優れた波面収差を有する2ミラーEUVリソグラフィ対物レンズシステムの開発に成功していた。

その後も研究を続け、#2017y には32nmプロセス対応EUV露光装置の試作に成功。その後、5nm向けEUV露光装置の開発が行われてきた。

EUV光源は、長年にわたってハルビン工科大学で研究開発されており、現在は長春研究所と協業体制にあるという。

EUV露光装置向けの超精密マスク/シリコンウェハステージは、清華大学の朱玉教授が率いるチームが #2014y に開発し、長春研究所に納入したという。

中国が5nmプロセス対応EUV露光装置の試作機を開発か?、中国メディア報道

中国の複数のメディアやSNSが「北京、ハルビン、長春にある中国の3つの研究機関のチームが協力して最先端EUV露光装置の試作機(プロトタイプ)を完成させた」と報じている。

マイナビニュース

#20230501nn 日本経済新聞 朝刊

経営の視点
出戻りCEOは悲劇か 成功例が隠す退化の法則

---

名物CEOの復帰が常に会社を救うとは限らない。米S&P1500種株価指数の構成企業のうち、#1992y から #2017y までに登場した167人の「出戻りCEO」の復帰中に記録した株価騰落率は初任CEOの平均と比べ、年率10.1%低かった。

大半の出戻りCEOは失敗する。問題はこうした法則が、スティーブ・ジョブズ氏などのわずかな成功例に隠れてしまっている点にある。出戻りCEO全員が「ジョブズ神話」を再現できるわけではない。

#20230430nn 日本経済新聞 朝刊 #nn

チャートは語る
農業再生 企業が耕す 国内販売量の4割 国際競争力は道半ば

---

農業を営む企業は #2022y#2017y 比で3割増え、個人農家は2割減った。農産物の販売額も #2020y に約3兆円と10年間で5割増加した。国産農作物に占める割合は4割に高まった。

今や全国の耕地の3割が企業を軸にした経営だ。#2022y の1社あたりの平均面積は28haあり、全体平均の9倍に達する。「農業の集約が進み、企業の活力を農業に取り込む道筋ができてきた」。

だが、日本の農業従事者の70%は65歳以上。米国(34%)やドイツ(9%)より高齢化が進む。企業参入で活性化しつつあるものの、国全体では高齢化による廃業や最新機器導入の遅れで生産性は高まっていない。

OECDによると、日本の農林水産業の #2000y#2020y の労働生産性は年平均0.5%低下。欧米など主要7カ国で唯一落ち込んだ。高額な機具をシェアできるようにする農業のスマート化に向けた国の支援も急務だ。

#202305ns 大規模言語モデル

深層学習の課題を克服するアプローチが #2017y から #2018y に登場した。大量のテキストデータで訓練され、多様な個別タスクに適応できる「大規模言語モデル」だ。視覚データを大量に学習するモデルも登場し、それらを総称した「基盤モデル」という呼び名が定着した。

#2018y、時代を画す言語モデルが続々と登場した。#201802m にアレン人工知能研究所のELMo、#201806m にOpenAIのGPT、#201810m にグーグルのBERTという新たな言語モデルが発表され、ベンチマークの記録を競い合うように塗り替えていった。

GPTとBERTのモデル学習の手法は斬新だった。大量データによる事前学習と、比較的少量のデータによる追加的な再学習(ファインチューニング)の2段階に分けていた。大規模言語モデルの事前学習では、学習用のデータセットのラベル付の必要がなく、自動化できた。

#202305ns 大規模言語モデル

今のAIブームが始まった #2010y 代前半以来、牽引役は画像や物体、音声や文字などを認識するタスクをこなす「認識系」AIだった。この時、大量のデータをもとに認識対象の背景にあるパターンやルールを学習する深層学習の技術が初めて表舞台に登場した。

深層学習は一般に学習用のデータを数万から数十万セット規模で準備する必要があり、その多くは手作業で作成される。画像診断AIの場合、専門家が病巣部に目印を付けるといったラベル付作業が必要だ。こうした「教師データ」の作成に多大な労力を費やす必要があった。

深層学習の課題を克服するアプローチが #2017y から #2018y に登場した。大量のテキストデータで訓練され、多様な個別タスクに適応できる「大規模言語モデル」だ。視覚データを大量に学習するモデルも登場し、それらを総称した「基盤モデル」という呼び名が定着した。