garden/content/daily/2024-10-08.md
2024-10-09 01:07:00 +08:00

3.6 KiB
Raw Blame History

+++ title = 2024-10-08 author = ["SouthFox"] date = 2024-10-08T23:30:00+08:00 lastmod = 2024-10-09T00:14:09+08:00 lastmod = 2024-10-09T01:03:18+08:00 tags = ["publish"] draft = false +++

ReactFlux

ReactFlux 是一款 [Miniflux]({{< relref "../articles/Miniflux - 一款简约的在线 RSS 阅读器.md" >}}) 的三方阅读器,需要 Miniflux 的 API token (也支持账密)即可登录,支持条目滑过屏幕后标为已读功能,有效解决未读过载问题。因为之前策略是打开主页来看一看有感兴趣的才点进去,而其它的条目就不管了,而只有手动点进去的条目才会标为已读,这就导致未读会越积越多,如果两三天没打开的话也会出现没有翻到上次查看的位置导致漏掉。

AI 降温包 NODE

好好鼓捣了番 [RSS]({{< relref "../main/20240927003911-rss.md" >}}) 的阅读设置所以把积压大半年的几千条未读给解决了。发现这半年出现的最多的就是 [AI]({{< relref "../main/20241008234023-ai.md" >}}) 相关了,发现有趣的一点就是从一开始讲发展讲效用慢慢出现了看衰的观点,那就裁剪下来看个乐吧。

AI 不在乎正确性,只在乎内容是否能说服人或符合特定叙述。它们只是在胡说八道。如果生成的信息是正确的,那只是巧合罢了。

幻觉源自大模型的数学和逻辑结构,不可能通过改进架构、增强数据集或事实核查机制消除。根据哥德尔的第一不完备定理,研究人员证明大模型的每一个阶段,从训练数据搜集到事实检索、意图分类和文本生成,每个阶段产生幻觉的几率都不是零。

Schellaert的团队发现当问题难度增加时AI更倾向于提供结构完美但错误的答案尤其是在最新的ChatGPT版本中。

因为不管什么 AI 模型,最终目标只有一个,就是模仿人类的思维。语料体现的正是人类思维,同一份语料,不管你拿什么规则去分析,最后得到的结果应该是一样的,因为它包含的人类思维是不变的。

这就好像,不同的画家去临摹同一个模特,如果目标都是复现原貌,那么只要画家达到一定水准,不管谁来画,结果将非常接近,因为模特的长相是不变的。

如果 [AI]({{< relref "../main/20241008234023-ai.md" >}}) 的目的是为了「再现」人类,那么就会再现出人类的「不懂装懂」吗?

我们可能正处于一场 AI 次贷危机之中,成千上万的公司已经支付了过高的费用来集成 AI 技术,而这些技术可能并不稳定,也不一定能够带来预期的收益或回报。