[post] new post

This commit is contained in:
SouthFox 2024-10-09 00:14:32 +08:00
parent a9aac8e609
commit 0d40891025

View file

@ -0,0 +1,45 @@
+++
title = 2024-10-08
author = ["SouthFox"]
date = 2024-10-08T23:30:00+08:00
lastmod = 2024-10-09T01:03:18+08:00
tags = ["publish"]
draft = false
+++
## ReactFlux {#reactflux}
[ReactFlux](https://github.com/electh/ReactFlux) 是一款 [Miniflux]({{< relref "../articles/Miniflux - 一款简约的在线 RSS 阅读器.md" >}}) 的三方阅读器,需要 Miniflux 的 API token (也支持账密)即可登录,支持条目滑过屏幕后标为已读功能,有效解决未读过载问题。因为之前策略是打开主页来看一看有感兴趣的才点进去,而其它的条目就不管了,而只有手动点进去的条目才会标为已读,这就导致未读会越积越多,如果两三天没打开的话也会出现没有翻到上次查看的位置导致漏掉。
## AI 降温包 <span class="tag"><span class="NODE">NODE</span></span> {#ai-降温包}
好好鼓捣了番 [RSS]({{< relref "../main/20240927003911-rss.md" >}}) 的阅读设置所以把积压大半年的几千条未读给解决了。发现这半年出现的最多的就是 [AI]({{< relref "../main/20241008234023-ai.md" >}}) 相关了,发现有趣的一点就是从一开始讲发展讲效用慢慢出现了看衰的观点,那就裁剪下来看个乐吧。
- [奇客Solidot | 大模型没有幻觉,它只是喜欢胡说八道](https://www.solidot.org/story?sid=78396)
> AI 不在乎正确性,只在乎内容是否能说服人或符合特定叙述。它们只是在胡说八道。如果生成的信息是正确的,那只是巧合罢了。
- [奇客Solidot | 大模型的幻觉是不可避免地](https://www.solidot.org/story?sid=79262)
> 幻觉源自大模型的数学和逻辑结构,不可能通过改进架构、增强数据集或事实核查机制消除。根据哥德尔的第一不完备定理,研究人员证明大模型的每一个阶段,从训练数据搜集到事实检索、意图分类和文本生成,每个阶段产生幻觉的几率都不是零。
- [AI模型越复杂就越有可能撒谎 - 煎蛋](https://jandan.net/p/118007#/)
> Schellaert的团队发现当问题难度增加时AI更倾向于提供结构完美但错误的答案尤其是在最新的ChatGPT版本中。
- [科技爱好者周刊(第 299 期AI 的关键是语料 - 阮一峰的网络日志](https://www.ruanyifeng.com/blog/2024/05/weekly-issue-299.html)
> 因为不管什么 AI 模型,最终目标只有一个,就是模仿人类的思维。语料体现的正是人类思维,同一份语料,不管你拿什么规则去分析,最后得到的结果应该是一样的,因为它包含的人类思维是不变的。
>
> 这就好像,不同的画家去临摹同一个模特,如果目标都是复现原貌,那么只要画家达到一定水准,不管谁来画,结果将非常接近,因为模特的长相是不变的。
如果 [AI]({{< relref "../main/20241008234023-ai.md" >}}) 的目的是为了「再现」人类,那么就会再现出人类的「不懂装懂」吗?
- [奇客Solidot | AI 产品仍然依靠人类去填补性能差距](https://www.solidot.org/story?sid=77881)
- [AI生成的垃圾正在堵塞互联网 - 煎蛋](https://jandan.net/p/117944)
- [OpenAI 的“愚蠢”把戏已经把大型科技企业“彻底毒害”了_OpenAI_Edward Zitron_InfoQ精选文章](https://www.infoq.cn/article/GiyOQvFzRw355bO5kLus)
> 我们可能正处于一场 AI 次贷危机之中,成千上万的公司已经支付了过高的费用来集成 AI 技术,而这些技术可能并不稳定,也不一定能够带来预期的收益或回报。