Compare commits
2 commits
2f700b0cf9
...
a0c4902702
Author | SHA1 | Date | |
---|---|---|---|
a0c4902702 | |||
71ada753b1 |
2 changed files with 60 additions and 4 deletions
46
content/daily/2024-10-08.md
Normal file
46
content/daily/2024-10-08.md
Normal file
|
@ -0,0 +1,46 @@
|
||||||
|
+++
|
||||||
|
title = 2024-10-08
|
||||||
|
author = ["SouthFox"]
|
||||||
|
date = 2024-10-08T23:30:00+08:00
|
||||||
|
lastmod = 2024-10-09T00:14:09+08:00
|
||||||
|
lastmod = 2024-10-09T01:03:18+08:00
|
||||||
|
tags = ["publish"]
|
||||||
|
draft = false
|
||||||
|
+++
|
||||||
|
|
||||||
|
## ReactFlux {#reactflux}
|
||||||
|
|
||||||
|
[ReactFlux](https://github.com/electh/ReactFlux) 是一款 [Miniflux]({{< relref "../articles/Miniflux - 一款简约的在线 RSS 阅读器.md" >}}) 的三方阅读器,需要 Miniflux 的 API token (也支持账密)即可登录,支持条目滑过屏幕后标为已读功能,有效解决未读过载问题。因为之前策略是打开主页来看一看有感兴趣的才点进去,而其它的条目就不管了,而只有手动点进去的条目才会标为已读,这就导致未读会越积越多,如果两三天没打开的话也会出现没有翻到上次查看的位置导致漏掉。
|
||||||
|
|
||||||
|
|
||||||
|
## AI 降温包 <span class="tag"><span class="NODE">NODE</span></span> {#ai-降温包}
|
||||||
|
|
||||||
|
好好鼓捣了番 [RSS]({{< relref "../main/20240927003911-rss.md" >}}) 的阅读设置所以把积压大半年的几千条未读给解决了。发现这半年出现的最多的就是 [AI]({{< relref "../main/20241008234023-ai.md" >}}) 相关了,发现有趣的一点就是从一开始讲发展讲效用慢慢出现了看衰的观点,那就裁剪下来看个乐吧。
|
||||||
|
|
||||||
|
- [奇客Solidot | 大模型没有幻觉,它只是喜欢胡说八道](https://www.solidot.org/story?sid=78396)
|
||||||
|
|
||||||
|
> AI 不在乎正确性,只在乎内容是否能说服人或符合特定叙述。它们只是在胡说八道。如果生成的信息是正确的,那只是巧合罢了。
|
||||||
|
|
||||||
|
- [奇客Solidot | 大模型的幻觉是不可避免地](https://www.solidot.org/story?sid=79262)
|
||||||
|
|
||||||
|
> 幻觉源自大模型的数学和逻辑结构,不可能通过改进架构、增强数据集或事实核查机制消除。根据哥德尔的第一不完备定理,研究人员证明大模型的每一个阶段,从训练数据搜集到事实检索、意图分类和文本生成,每个阶段产生幻觉的几率都不是零。
|
||||||
|
|
||||||
|
- [AI模型越复杂,就越有可能撒谎 - 煎蛋](https://jandan.net/p/118007#/)
|
||||||
|
|
||||||
|
> Schellaert的团队发现,当问题难度增加时,AI更倾向于提供结构完美但错误的答案,尤其是在最新的ChatGPT版本中。
|
||||||
|
|
||||||
|
- [科技爱好者周刊(第 299 期):AI 的关键是语料 - 阮一峰的网络日志](https://www.ruanyifeng.com/blog/2024/05/weekly-issue-299.html)
|
||||||
|
|
||||||
|
> 因为不管什么 AI 模型,最终目标只有一个,就是模仿人类的思维。语料体现的正是人类思维,同一份语料,不管你拿什么规则去分析,最后得到的结果应该是一样的,因为它包含的人类思维是不变的。
|
||||||
|
>
|
||||||
|
> 这就好像,不同的画家去临摹同一个模特,如果目标都是复现原貌,那么只要画家达到一定水准,不管谁来画,结果将非常接近,因为模特的长相是不变的。
|
||||||
|
|
||||||
|
如果 [AI]({{< relref "../main/20241008234023-ai.md" >}}) 的目的是为了「再现」人类,那么就会再现出人类的「不懂装懂」吗?
|
||||||
|
|
||||||
|
- [奇客Solidot | AI 产品仍然依靠人类去填补性能差距](https://www.solidot.org/story?sid=77881)
|
||||||
|
|
||||||
|
- [AI生成的垃圾正在堵塞互联网 - 煎蛋](https://jandan.net/p/117944)
|
||||||
|
|
||||||
|
- [OpenAI 的“愚蠢”把戏,已经把大型科技企业“彻底毒害”了_OpenAI_Edward Zitron_InfoQ精选文章](https://www.infoq.cn/article/GiyOQvFzRw355bO5kLus)
|
||||||
|
|
||||||
|
> 我们可能正处于一场 AI 次贷危机之中,成千上万的公司已经支付了过高的费用来集成 AI 技术,而这些技术可能并不稳定,也不一定能够带来预期的收益或回报。
|
18
soup.py
18
soup.py
|
@ -7,9 +7,19 @@ from bs4 import BeautifulSoup
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
def re_link(link):
|
def get_node_link(node_contend: str):
|
||||||
urls = re.findall(r'href=[\'"]?([^\'" >]+)', link)
|
node_soup = BeautifulSoup(node_contend, "lxml")
|
||||||
return urls
|
|
||||||
|
temp_link = node_soup.find_all(name='a',class_='internal-link')
|
||||||
|
node_link = set()
|
||||||
|
for i in temp_link:
|
||||||
|
i = i.get("href")
|
||||||
|
|
||||||
|
if i == "":
|
||||||
|
continue
|
||||||
|
|
||||||
|
node_link.add(i)
|
||||||
|
return node_link
|
||||||
|
|
||||||
|
|
||||||
def new_section(soup):
|
def new_section(soup):
|
||||||
|
@ -59,7 +69,7 @@ def soup_link():
|
||||||
break
|
break
|
||||||
|
|
||||||
node_id_link = '/' + file_name + '/#' +node_element["id"]
|
node_id_link = '/' + file_name + '/#' +node_element["id"]
|
||||||
node_dict["links"] = re_link(node_content)
|
node_dict["links"] = get_node_link(node_content)
|
||||||
node_dict["id-link"] = node_id_link
|
node_dict["id-link"] = node_id_link
|
||||||
node_dict["backlinks"] = []
|
node_dict["backlinks"] = []
|
||||||
nodes_dict[node_element["id"]] = node_dict
|
nodes_dict[node_element["id"]] = node_dict
|
||||||
|
|
Loading…
Reference in a new issue