Compare commits

...

2 commits

Author SHA1 Message Date
a0c4902702 [fix] do not get external link for node
Some checks failed
/ deploy (push) Failing after 9s
2024-10-09 01:07:04 +08:00
71ada753b1 [post] new post 2024-10-09 01:07:00 +08:00
2 changed files with 60 additions and 4 deletions

View file

@ -0,0 +1,46 @@
+++
title = 2024-10-08
author = ["SouthFox"]
date = 2024-10-08T23:30:00+08:00
lastmod = 2024-10-09T00:14:09+08:00
lastmod = 2024-10-09T01:03:18+08:00
tags = ["publish"]
draft = false
+++
## ReactFlux {#reactflux}
[ReactFlux](https://github.com/electh/ReactFlux) 是一款 [Miniflux]({{< relref "../articles/Miniflux - 一款简约的在线 RSS 阅读器.md" >}}) 的三方阅读器,需要 Miniflux 的 API token (也支持账密)即可登录,支持条目滑过屏幕后标为已读功能,有效解决未读过载问题。因为之前策略是打开主页来看一看有感兴趣的才点进去,而其它的条目就不管了,而只有手动点进去的条目才会标为已读,这就导致未读会越积越多,如果两三天没打开的话也会出现没有翻到上次查看的位置导致漏掉。
## AI 降温包 <span class="tag"><span class="NODE">NODE</span></span> {#ai-降温包}
好好鼓捣了番 [RSS]({{< relref "../main/20240927003911-rss.md" >}}) 的阅读设置所以把积压大半年的几千条未读给解决了。发现这半年出现的最多的就是 [AI]({{< relref "../main/20241008234023-ai.md" >}}) 相关了,发现有趣的一点就是从一开始讲发展讲效用慢慢出现了看衰的观点,那就裁剪下来看个乐吧。
- [奇客Solidot | 大模型没有幻觉,它只是喜欢胡说八道](https://www.solidot.org/story?sid=78396)
> AI 不在乎正确性,只在乎内容是否能说服人或符合特定叙述。它们只是在胡说八道。如果生成的信息是正确的,那只是巧合罢了。
- [奇客Solidot | 大模型的幻觉是不可避免地](https://www.solidot.org/story?sid=79262)
> 幻觉源自大模型的数学和逻辑结构,不可能通过改进架构、增强数据集或事实核查机制消除。根据哥德尔的第一不完备定理,研究人员证明大模型的每一个阶段,从训练数据搜集到事实检索、意图分类和文本生成,每个阶段产生幻觉的几率都不是零。
- [AI模型越复杂就越有可能撒谎 - 煎蛋](https://jandan.net/p/118007#/)
> Schellaert的团队发现当问题难度增加时AI更倾向于提供结构完美但错误的答案尤其是在最新的ChatGPT版本中。
- [科技爱好者周刊(第 299 期AI 的关键是语料 - 阮一峰的网络日志](https://www.ruanyifeng.com/blog/2024/05/weekly-issue-299.html)
> 因为不管什么 AI 模型,最终目标只有一个,就是模仿人类的思维。语料体现的正是人类思维,同一份语料,不管你拿什么规则去分析,最后得到的结果应该是一样的,因为它包含的人类思维是不变的。
>
> 这就好像,不同的画家去临摹同一个模特,如果目标都是复现原貌,那么只要画家达到一定水准,不管谁来画,结果将非常接近,因为模特的长相是不变的。
如果 [AI]({{< relref "../main/20241008234023-ai.md" >}}) 的目的是为了「再现」人类,那么就会再现出人类的「不懂装懂」吗?
- [奇客Solidot | AI 产品仍然依靠人类去填补性能差距](https://www.solidot.org/story?sid=77881)
- [AI生成的垃圾正在堵塞互联网 - 煎蛋](https://jandan.net/p/117944)
- [OpenAI 的“愚蠢”把戏已经把大型科技企业“彻底毒害”了_OpenAI_Edward Zitron_InfoQ精选文章](https://www.infoq.cn/article/GiyOQvFzRw355bO5kLus)
> 我们可能正处于一场 AI 次贷危机之中,成千上万的公司已经支付了过高的费用来集成 AI 技术,而这些技术可能并不稳定,也不一定能够带来预期的收益或回报。

18
soup.py
View file

@ -7,9 +7,19 @@ from bs4 import BeautifulSoup
def re_link(link): def get_node_link(node_contend: str):
urls = re.findall(r'href=[\'"]?([^\'" >]+)', link) node_soup = BeautifulSoup(node_contend, "lxml")
return urls
temp_link = node_soup.find_all(name='a',class_='internal-link')
node_link = set()
for i in temp_link:
i = i.get("href")
if i == "":
continue
node_link.add(i)
return node_link
def new_section(soup): def new_section(soup):
@ -59,7 +69,7 @@ def soup_link():
break break
node_id_link = '/' + file_name + '/#' +node_element["id"] node_id_link = '/' + file_name + '/#' +node_element["id"]
node_dict["links"] = re_link(node_content) node_dict["links"] = get_node_link(node_content)
node_dict["id-link"] = node_id_link node_dict["id-link"] = node_id_link
node_dict["backlinks"] = [] node_dict["backlinks"] = []
nodes_dict[node_element["id"]] = node_dict nodes_dict[node_element["id"]] = node_dict