garden/content/daily/2024-10-08.md
SouthFox db154ee461
All checks were successful
/ deploy (push) Successful in 47s
[feat] use id anchors replace NODE tag
2024-10-14 23:55:46 +08:00

4.2 KiB
Raw Permalink Blame History

+++ title = 2024-10-08 author = ["SouthFox"] date = 2024-10-08T23:30:00+08:00 lastmod = 2024-10-14T23:27:31+08:00 tags = ["publish"] draft = false +++

ReactFlux

ReactFlux 是一款 [Miniflux]({{< relref "../articles/Miniflux - 一款简约的在线 RSS 阅读器.md" >}}) 的三方阅读器,需要 Miniflux 的 API token (也支持账密)即可登录,支持条目滑过屏幕后标为已读功能,有效解决未读过载问题。因为之前策略是打开主页来看一看有感兴趣的才点进去,而其它的条目就不管了,而只有手动点进去的条目才会标为已读,这就导致未读会越积越多,如果两三天没打开的话也会出现没有翻到上次查看的位置导致漏掉。

AI 降温包

好好鼓捣了番 [RSS]({{< relref "../main/20240927003911-rss.md" >}}) 的阅读设置所以把积压大半年的几千条未读给解决了。发现这半年出现的最多的就是 [AI]({{< relref "../main/20241008234023-ai.md" >}}) 相关了,发现有趣的一点就是从一开始讲发展讲效用慢慢出现了看衰的观点,那就裁剪下来看个乐吧。

AI 不在乎正确性,只在乎内容是否能说服人或符合特定叙述。它们只是在胡说八道。如果生成的信息是正确的,那只是巧合罢了。

幻觉源自大模型的数学和逻辑结构,不可能通过改进架构、增强数据集或事实核查机制消除。根据哥德尔的第一不完备定理,研究人员证明大模型的每一个阶段,从训练数据搜集到事实检索、意图分类和文本生成,每个阶段产生幻觉的几率都不是零。

Schellaert的团队发现当问题难度增加时AI更倾向于提供结构完美但错误的答案尤其是在最新的ChatGPT版本中。

因为不管什么 AI 模型,最终目标只有一个,就是模仿人类的思维。语料体现的正是人类思维,同一份语料,不管你拿什么规则去分析,最后得到的结果应该是一样的,因为它包含的人类思维是不变的。

这就好像,不同的画家去临摹同一个模特,如果目标都是复现原貌,那么只要画家达到一定水准,不管谁来画,结果将非常接近,因为模特的长相是不变的。

如果 [AI]({{< relref "../main/20241008234023-ai.md" >}}) 的目的是为了「再现」人类,那么就会再现出人类的「不懂装懂」吗?

我们可能正处于一场 AI 次贷危机之中,成千上万的公司已经支付了过高的费用来集成 AI 技术,而这些技术可能并不稳定,也不一定能够带来预期的收益或回报。

总结

好吧,开始愉快的写起总结了,现在应该没有什么不好了,感觉应该多多的写点,先从摘抄写起,然后一步一步的过渡到读书笔记还有什么更有「希望」的用法之上。

今天去到公司然后就是在弄解决方案的事,王勇好像跟远润似乎也聊过,觉得我们俩之间配合不好,似乎也吹起了枕边风的样子,反正放平心态总之这不是我要管的事了。下午在弄集群的事然后鼓捣鼓捣相关脚本,然后晚上回来躺着睡了一小时好像,现在不怎么累,但首先还是有点进展了吧。

明天把相关书给看一下,最好做点读书笔记吧。