闲聊

看视频主林亦LYi 做了一期节目《图灵测试大逃杀!七大顶级AI伪装人类!谁会更胜一筹?》从内容上看也知道很没有 AI 性,简直丧心病狂。而通过这样的假设实验,倒也确实可以看出各个大语言模型生成式 AI 在极端情况下的逻辑、措辞、模拟人类情感和识破对方身份并说服同一竞赛者的人员,并且,还能从中看出各个 AI 所表现出的个性。我觉得这样的设计比赛确实挺有创意的,也不失为是在排名、跑分外,打造出了一个新的比赛方式。

因为视频内容播报得很快,所以我没有完全跟上去推演实验中 AI 之间互相之间的明争暗斗的关系。不过看完全集,我注意到了一点: AI 用的都是书面表达。

继续阅读

与本研究主题无关的前言:听说 Google 公开了 Gemini 的深度研究功能,免费提供用户有限次数的使用。我便拿来试了试,挺厉害!每个步骤几乎都要检索 1、200 个网页内容,而且从生成的报告上来看一点都不比 OpenAI ChatGPT 的 DeepResearch 功能逊色。这一次我就试了一下曾经在哪里读到过的,说是英国成年人里还有不少成年人晚上睡觉还会抱着玩偶的新闻。我想知道当时我看到的文章到底是不是靠谱,以及在其他不同的文化社会是否也有类似的情况。

我的提问是:

我以前听说英国有一定比例的成年人晚上睡觉时会抱着玩偶入睡。这是真的吗?帮我做一个调查(用英语,或者用各国本国语言),调查内容是:首先确定上面我说的是不是真的。各个国家是否普遍存在着这样的成年人抱玩偶入睡的习惯?以及,在不同国家(或地区、社会),抱玩偶入睡的成年人的比例,以及所在社会对此的评价是否有什么比较显著的不同?还有,玩偶造型、材料、数量等,是否也会因国家不同而不同?

我用 Google 的 Gemini 的 Deep Research 功能进行了询问,并在结果输出区域内点击「导出到 Google 文档」保存到我的个人文档里。然后我又使用了 Docs™ to Markdown 这款可以附加到 Google 文档的插件(其实并不是要在自己计算机上安装什么程序,而是说就是要在 Google 网页上对该第三方开发者开发的插件进行授权),安装了该插件后,就可以很方便地将 Google 文档中的内容转换为 Markdown ,再粘贴到我常用的博客编辑工具里了,内容传递就这样一路打通。

而我也确实想把自己花了钱(比如 ChatGPT )或没花钱(比如这里的 Google Gemini )发起的一些研究调查的结果,选择一些发布到博客,特别是选择这样一些有趣的题目。看了本次调查结果(如下),没想到有这个习惯的成年人居然有那么多。当然需要说明的是,以下内容是 AI 生成的,我没有逐一检查每个网页链接里是否存在相关信息,以及 AI 的引用和汇总是否准确。


成年人在英国及其他国家与毛绒玩具共眠的现象:一项调查报告

1. 引言

继续阅读

以前在博客里考察过:《日语里既有「平和」也有「和平」》,今天看到一条视频新闻报道,其中大约 14 秒前后有这么一句话:「両首脳は、和平に向けて、エネルギー関連施設に対する」(后略。除此之外,在今天听 NHK 新闻播客的时候,也听到了节目在播报乌克兰被入侵和停战协议的相关新闻中用了日语的「和平」这个词。

今天听之后的一个猜测:看起来,除了上次的考察中所指出的不同外,日语中的「平和」与「和平」可能还存在着这样一种使用上的不同:「平和」更倾向于日常生活的描述,而「和平」可能更倾向于像是重大国际事件的描述。上次我读《詳説 日本史研究》( ISBN : ‎ 9784634010734 )时也是读到近代史相关战争内容时候,发现了「和平」这个日语单词的。

人类 wildgun 写的前言:这篇文章是我最近看了 Anthropic 的 CEO 说到今年年底(?)绝大部分的代码将会由 AI 生成这样的新闻后,想到的并于 ChatGPT 进行的讨论。下面的内容是根据讨论,让 AI 整理出的文章。

说起来,我真的在计算机专业的学校毕业后就没有用过一次二叉树之类的东西了……谁在开发中用过谁举一下手?

当 AI 的发展一日千里,我们不得不一次次回溯那个问题:「人类还能做什么?」

Anthropic 的 CEO 预测,未来三到六个月,AI 可能会编写 90% 的代码。OpenAI 的创始人则在 2025 年初表示,未来十年内,每个人都可以调动相当于 2025 年全人类智力的计算能力。这些预测,听起来或许像科幻小说,但它们的影响正在逐步显现。

那么,在 AI 可以编写代码、优化算法、构建系统的世界里,我们还需要学习编程吗?

如果学习编程只是为了「写代码」,那么答案或许是悲观的。就像过去机械化替代了工匠的手工雕琢,自动化替代了流水线工人的重复劳作,AI 也在迅速吞噬那些纯粹基于语法和逻辑规则的编程任务。人类的手敲代码,正变得不再必要。

但如果我们理解编程为一种思维方式,那么情况则完全不同。

编程不仅仅是代码,而是建立问题的抽象框架、理解系统的运作方式、掌握结构化的逻辑推理。AI 可以写出更优雅的排序算法,但它不会去质疑:「这个问题真的需要排序吗?」AI 可以自动补全你的代码,但它不会去思考:「这个系统的核心瓶颈在哪里?」

未来的学习,或许不再是「如何写代码」,而是「如何洞察 AI 生成的代码之下的逻辑肌理」,如何在 AI 的冷峻算力中植入人类思维的温度,如何让 AI 从冰冷的工具变成可被驾驭的思想延伸,而非一个只能依赖的黑箱。
继续阅读

人类 wildgun 写的前言:找桌面上的东西时无意找到了这把大约两年前买的有趣的尺子。一把由京都大学「不便益システム研究所」(可译为:不方便系统研究所)所设计的尺子。我就把这把尺子拿在手里,与 ChatGPT 讨论了一下该尺子的设计理念,以及如果是它的话,它还会据此理念设计出哪些产品。

以下是 ChatGPT 根据我与它的讨论而输出的内容:

在这个充满创意与数学魅力的世界里,我偶然发现了一把非同凡响的尺子。它不像普通的尺子那样平凡无奇,而是承载着设计师们对数字、比例以及「便捷」概念的深刻思考。

奇趣横生的尺子

这把尺子的一面刻着一系列看似简单却充满玄机的数字 —— 2 、 3 、 5 、 7 、 11 、 13 、 17。仔细观察,你会发现这些数字正是质数,而且它们之间的刻度并非等分:例如,从 7 到 13 的距离正好是 6 厘米,而 11 到 17 之间的距离也同样为 6 厘米。这种设计让人不禁联想到数学中的某种内在规律,同时又为人们留下了无限的想象空间。

另一面则更为神秘:它刻着一些不等分的短线,长短不一,有的间隔仅为 1 毫米,有的可能达到 3 毫米或更多。随附的日文说明纸条更是让人摸不着头脑 —— 它提到「24 以下 的 自然数全部都隐藏在这把素数尺的某个地方」,还有一些关于 6 厘米、11 厘米、5 厘米 之间隐藏着的数字的暗示,以及让人联想到哥德巴赫猜想的神秘提示。设计者似乎故意将传统工具的实用性与数学的抽象美感巧妙融合,既具备测量的功能,又充满了谜题和挑战。

设计理念与期待

这把尺子绝不仅仅是一个测量工具,它更像是一件艺术装置或一个谜题,邀请使用者一起参与解读其中的奥秘。设计者似乎希望通过这种「不便」的设计:
• 唤醒对数学美学的好奇心:质数作为数学中最基本也最神秘的存在,常常被赋予某种特殊的魅力。通过在日常工具上呈现质数的排列与差异,设计师希望人们能在不经意间发现数学中的艺术之美。
• 激发探索精神:不规则的毫米刻度和隐藏的数字提示,仿佛在向使用者抛出一系列谜题。只有仔细观察、反复测量、认真思考,才能揭示这些数字背后的故事。
• 挑战传统的使用习惯:日常的尺子应当是精确且直观的,而这把尺子却故意制造出「使用上 的 不便」。这种不便正是为了让使用者跳出常规思维,从中发现新视角和乐趣。

如果换作是我……
继续阅读

记得去年秋冬, OpenAI 的 Sama 发了一句「there is no wall」,似乎是在回应互联网上人们对他们所训练大模型是否「撞墙」即遇到发展瓶颈的质疑。当时我的一篇博客也提到了这一点。

而如今已是 2025 年的 3 月份,随着 ChatGPT 4.5 的发布,以及似乎被人们认为它并没有体现出多大的进化,我想到了半年前他的那句话。或许,目前 4.5 不温不火,不符合人们期待的情况,就是当时他想要驳斥的状况?

这又让我想到了,在大约 2023 年中的某一天。 ChatGPT 3.5 发布大约半年,而 4 还没发布时,我记得听了一档播客,其中一位嘉宾就提到他去看了 OpenAI 的内部演示,表示 4 将会是一个很明显进步的模型。

从这两起从传言到验证的时间跨度上来看,似乎都是半年左右时间。不知道是否可以据此推测,生成式 AI 界的谣言也要以前后半年这个尺度来进行回顾和验证呢?

继续阅读

如前所述,我在《大谷光瑞上人寫眞集》中看到一张合影。编号排在第十三,标题是:《中国御滞留当時の上人》。照片上方有一行小字:「中華民国三十二年十一月三日適逢昭和十八年明治佳節賞菊於滬西三元堂攝影紀念」。昨天写博客的时候我就没找到这个「滬西三元堂」的信息。

现在找到了。

我拿到复印件之后,仔细看了照片下的人名,发现在众多名字中,有那么一个看起来像是汉族人而非日本人的名字。不过很遗憾,我没能认得很清楚,汉字难以分辨。不过,我又以其他在座的日本人的名字 + 上海为关键字,经过一通搜索,找到了一份杂志。原来影集里的这张照片,也被同样刊登在杂志上。

无论是影集中的照片还是杂志上的照片,拍摄者都不明。且成像时间应该是在大谷光瑞仍在世时,合理推测这张照片应该是进入公有领域了吧。引用如下:

来源于:《大乗 : ブディストマガジン》杂志,期号:5(10),第 32 页

而此名单中,看起来像汉族人名的那个名字在这里就能看得很清楚了:潘炳臣。

不认识这位——不认识没关系啊,搜一搜就认识了。而且合理推断:这张照片拍摄场景既非大谷光瑞的無憂園,也非上海別院,并且人名里就一个人看起来是汉人的,那拍摄场景很可能是在和这个人有关联的住宅。

继续阅读

今天去日本的电信企业(乐天 Rakuten )的营业厅办理手机业务。嗯,说到这里,我不想使用过大的主语,比如「日本信息安全意识低」或是「日本公司信息安全意识低」这样的话,所以还是很具体地指出:乐天营业厅在信息安全实践方面,是不是有可以改善的操作啊?

简单来就是办理个手机业务,开通一个新号码之类的。当然,我平时注重信息安全,也算是懂一些数码的内容,所以就通过店铺内设置的远程聊天坐席,向远程客服询问好了我准备的一些列的技术和经费问题后,就轮到和店铺进行实际的手机服务开通手续了。

这是发生了一件让我觉得有些匪夷所思的事:店员递过来一台平板电脑,上面显示着需要用户输入 Rakute 账号密码的界面。店员提示我在店铺的设备上输入我自己的乐天账号密码。

我问:我可以在自己手机上登入我自己账号吗?

店员:那就变成网上契约了,不能享受店铺服务了,如果开通后使用时碰到什么技术支持问题,也无法在店铺接受技术支持了。

于是我就以「我不喜欢在别人的设备上输入我自己的账号密码」为由,拒绝了在该店铺直接开通。

继续阅读

因为《大谷光瑞師の構想と居住空間》这份 PDF 文档中所展示的《在上海新無憂園增築工事仕様書》不是很清晰。所以我就去看了看原件。

一句话结论:无图无地址。

下面我就凭印象来写一下看的时候记住的一些情况吧。一本小册子,大约 B5 开面。保存状态挺完好。

注意这资料的标题,是「新無憂園」,因此可以推断是第二座無憂園。又因标题中写的是「增築工事」,其实也就是加盖,所以整本资料的内容好像主要是介绍加盖 2 ~ 4 楼的事(当然我没有一行一行仔细读)。

我看到里面提到的空间布局有:雑庫、支那人宿舍、日本人宿舍、學生室、発電所(以上皆为引用)。可见大谷光瑞在其中还培养学生。另外,中国人(即此册中原文所写「支那人」)的住处和日本人的住处是分别标注的。

还有一条信息是面积,我记得是写在第一页上面的:「總坪數兩百八十七坪四合四勺一」。

其他基本上都是一些建筑结构啦,骨架啦之类的信息,没有引起我很大的兴趣。应该确实是没有记录所在位置(地址)我记得好像也没提到建设公司、设计师的名字。

对了,如果顺利的话,大概过一阵子这份资料会被公开出来(当然这由不得我)。

人类 wildgun 写的前言:

今天在别人的一篇博客文章《如何用 AI 全方面辅助博客创作 – 从博文之内到博文之外》上留言,回顾了我去年提出的通过与 AI 聊天,共同推进一个想法,然后让 AI 整理并按照我的风格写作的 AI 博客创作实践。我发现自己好像也很久没用这个方法了,于是今天再来试试看。我的这篇文章是讨论生成式 AI 为何尚不能生成出一些嗅觉和味觉的内容。这可以说是我 2008 年写的一篇博客《越原始则越不容易被记录?》在这个 AI 时代的延续思考。下面就是本次经过与 AI 的讨论后,由 AI 为我归纳生成的博客文。


AI 的五感之旅:视觉、听觉已成,味觉、嗅觉还远吗?

人工智能已经能画画、写诗、演奏音乐,甚至能用合成语音和人类对话。视觉和听觉方面的突破,让 AI 在许多领域里游刃有余,然而,味觉和嗅觉似乎仍是 AI 难以涉足的领域。那么,为什么 AI 的进步在五感的不同维度上如此不均衡?味觉和嗅觉的 AI 化,究竟是技术难题,还是人类的需求本就不强烈?

视觉和听觉的「数字化」优势

视觉和听觉的「AI 化」之所以能迅速发展,一个关键原因在于它们都能用数字信号来表达。图像是像素矩阵,声音是波形或者频谱,而计算机天生擅长处理这些数据。深度学习算法可以分析大量的图片和音频,并进行模式识别,从而让 AI 具备了看和听的能力。

更重要的是,人类世界的数字化进程也主要围绕视觉和听觉展开。照片、视频、音频这些内容在互联网上无处不在,成为 AI 训练的理想数据来源。相比之下,味觉和嗅觉的「数据」要如何存储、传播、计算?这似乎仍是一个悬而未决的问题。

嗅觉和味觉的复杂性:物理 vs 化学

继续阅读