我怀疑可以。有些电脑维修行业从业人员说,他修了很多年电脑。只要看到客户寄给他故障症状描述报告,他大致能猜到故障的区域在哪里。我怀疑AI也能办到,从大量故障描述文本总结出规律,大致猜到哪个地方坏了。

#AI #大模型 #电脑 #维修

#開源分享 阿里巴巴開源了一款情感識別模型:R1-Omni
它能透過看影片來識別人的情緒,像人在看電視劇時能感受到演員的喜怒哀樂一樣

R1-Omni是一款基於強化學習與可驗證獎勵的全模態大模型,利用視覺和音訊資訊來識別情感,它把RLVR用於模型中,來提高模型在情感識別方面的推理、理解和泛化能力

能看、能聽、會分析、能生成詳細且可解釋的推理過程

專案地址: github.com/HumanMLLM/R1-Omni

#大模型 #情感識別大模型 #R1Omni

https://wxw.moe/@nanamisakura/114143261273441316

问各位一个llm相关问题,对于中文文本(含大标题小标题落款人正文等各种正经报告会有的东西),怎么样做到:1、有一个相对模糊的文本定位,例如要某一段标题内容;2、要对找出来的这段内容做embedding然后喂给大模型生成总结内容的时候,对于中文文本有什么方法可以在embedding前整理一下文本,让效果好一些呢?

我是来打TAG的。如果你在AI方面很在行,请考虑一下回复原来的嘟主 @nanamisakura

#LLM #AI #大模型 #中文 #文本处理

七海 :nikukyu: 沼底畅游 (@nanamisakura@wxw.moe)

问各位一个llm相关问题,对于中文文本(含大标题小标题落款人正文等各种正经报告会有的东西),怎么样做到:1、有一个相对模糊的文本定位,例如要某一段标题内容;2、要对找出来的这段内容做embedding然后喂给大模型生成总结内容的时候,对于中文文本有什么方法可以在embedding前整理一下文本,让效果好一些呢?

呜呜 w(> ʌ <)w
#抽象#具体 之间如何平衡?
不抽象就没有理论,会被大量具体淹没;
不具体,抽象就会远离现实。
简单的理论要更复杂、更具体,实际上就是引入更多 #参数
万亿甚至更多参数的 #大模型 真的是一切的 #终极答案 吗?
有了大量信息的输入,要得到输出,还差中间的信息处理过程。
处理方式有两种,#感性#理性
感性方式,就是经常看到某种情况,产生了一种 #感觉 ,以后再遇到类似情况,就按感觉来判断。我见多了猫,再见到一个东西,就能知道它是不是猫。感性是自然 #演化 出来的。
理性方式,就是 #归纳 - #演绎 ,先从大量观察归纳出规律,再将输入对应到某个规律,得到输出。我先见到很多猫,得出一个猫的定义或者判断标准,以后用这个定义去判断一个东西是不是猫。
理性之所以有效,是因为 #成本 低。你只需要学习规律就能解决很多问题,省去了亲自去感觉或者去归纳的成本。
传统 #程序 就是典型的理性方式,一步一步,一板一眼。
但理性的缺点也正是忽略了很多具体情况,导致理论不能结合实际。就像传统程序不能处理未实现设计的情况。
如果能不考虑成本,最好的方式是亲自去感觉一切。不需要归纳演绎,直接用感觉解决问题。
这就是 #大模型
简单问题只需要很少 #参数 ,比如投出的铅球在哪里落地,只需知道出手速度一个矢量参数即可相当准确。
实际上铅球的大小、重量、形状、风速、气压、温度等都会对结果产生影响,只是影响太小,可以忽略。
但若投气球,就需要加上这些参数,才能得到较准的结果,所以投气球比投铅球复杂。
#理论 就是找出主要因素,排除可忽略因素的过程,这个过程叫#抽象 。
没有抽象,会被大量事实淹没,看不到 #规律 ;过于抽象,会忽略重要因素,结果与事实不符。
要分清哪些因素重要,哪些可以忽略很困难,尤其是不那么极端的情况——比如排球。
简单粗暴的办法是不分情况,列一个包含所有参数的方程,一定能得出准确的结果。
唯一的缺点是 #成本 很高。对于铅球,就浪费了很多成本在那些完全不影响结果的参数上。
但如果这些时间精力的成本低到可以忽略不计呢?
那就可以不用分情况考虑,不管投出的是什么都成了同样的问题。
下一步,可以包含所有宏观物体的运动,再下一步,微观运动、电、磁……都可以统一到一个 #方程 ,只是这个方程可能需要成千上万个参数。
再下一步呢?生物,最后一步是人和社会,这个方程可能需要几万亿参数。
这就是 #大模型
EN - 零一万物-AI2.0大模型技术和应用的全球公司(01.ai)

零一万物-AI2.0大模型技术和应用的全球公司(01.ai)