ChatGPT

All posts tagged ChatGPT

人类 wildgun 写的前言:这篇文章是我最近看了 Anthropic 的 CEO 说到今年年底(?)绝大部分的代码将会由 AI 生成这样的新闻后,想到的并于 ChatGPT 进行的讨论。下面的内容是根据讨论,让 AI 整理出的文章。

说起来,我真的在计算机专业的学校毕业后就没有用过一次二叉树之类的东西了……谁在开发中用过谁举一下手?

当 AI 的发展一日千里,我们不得不一次次回溯那个问题:「人类还能做什么?」

Anthropic 的 CEO 预测,未来三到六个月,AI 可能会编写 90% 的代码。OpenAI 的创始人则在 2025 年初表示,未来十年内,每个人都可以调动相当于 2025 年全人类智力的计算能力。这些预测,听起来或许像科幻小说,但它们的影响正在逐步显现。

那么,在 AI 可以编写代码、优化算法、构建系统的世界里,我们还需要学习编程吗?

如果学习编程只是为了「写代码」,那么答案或许是悲观的。就像过去机械化替代了工匠的手工雕琢,自动化替代了流水线工人的重复劳作,AI 也在迅速吞噬那些纯粹基于语法和逻辑规则的编程任务。人类的手敲代码,正变得不再必要。

但如果我们理解编程为一种思维方式,那么情况则完全不同。

编程不仅仅是代码,而是建立问题的抽象框架、理解系统的运作方式、掌握结构化的逻辑推理。AI 可以写出更优雅的排序算法,但它不会去质疑:「这个问题真的需要排序吗?」AI 可以自动补全你的代码,但它不会去思考:「这个系统的核心瓶颈在哪里?」

未来的学习,或许不再是「如何写代码」,而是「如何洞察 AI 生成的代码之下的逻辑肌理」,如何在 AI 的冷峻算力中植入人类思维的温度,如何让 AI 从冰冷的工具变成可被驾驭的思想延伸,而非一个只能依赖的黑箱。
继续阅读

记得去年秋冬, OpenAI 的 Sama 发了一句「there is no wall」,似乎是在回应互联网上人们对他们所训练大模型是否「撞墙」即遇到发展瓶颈的质疑。当时我的一篇博客也提到了这一点。

而如今已是 2025 年的 3 月份,随着 ChatGPT 4.5 的发布,以及似乎被人们认为它并没有体现出多大的进化,我想到了半年前他的那句话。或许,目前 4.5 不温不火,不符合人们期待的情况,就是当时他想要驳斥的状况?

这又让我想到了,在大约 2023 年中的某一天。 ChatGPT 3.5 发布大约半年,而 4 还没发布时,我记得听了一档播客,其中一位嘉宾就提到他去看了 OpenAI 的内部演示,表示 4 将会是一个很明显进步的模型。

从这两起从传言到验证的时间跨度上来看,似乎都是半年左右时间。不知道是否可以据此推测,生成式 AI 界的谣言也要以前后半年这个尺度来进行回顾和验证呢?

继续阅读

OpenAI 在社交媒体上宣布,将在 4.5 个小时内进行直播( Livestream in 4.5 hours. )。从这个奇怪的预告来看,应该就是 ChatGPT 4.5 吧。

尽管我不会等着看直播,但我也来突发地随便写一下我期待的东西吧。

因为根据之前的介绍, 4.5 不是一个推理模型,而是 OpenAI 的最后一个非推理模型(纯粹对话模型)。所以我觉得不太能期待它在语言方面还能有多大提高空间——我觉得就汉语会话方面来说, 4o 已经足够好了。其实我更加期待的是:在美国新总统上任、马斯克推出了容易被突破审查的 AI Grok3 之后, OpenAI 是否也会相应调整其内容审查策略,增加可以进行讨论话题的自由度呢。

此外,如果说大语种如汉语或英语已经足够好了的话,那么不知道 AI 的小语种乃至古代语言方面理解能力是否能在 4.5 上得到实力加强呢?(我觉得难,毕竟互联网上公开数据中这类小语种数据量并没有猛增。)不过,我还是抱着一点点期待,它能在古代语言、方言的使用上获得一些进步。比如……讲一讲上海闲话?

再有就是我始终无法理解,即便是到了 03 的推理模型,依然无法很好地处理 ASCII 字符画。我觉得这次 GPT 4.5 应该也不太可能有明显改善的……吧?

最近几天,一个关于 ChatGPT 的不大不小的更新是: o3-mini 模型和它的 high 版本支持上传图片等文件了。那么,在推理功能的辅助下,或者说引导、修正下,它的 OCR 是否能更加准确了一些了呢?

我选用了昨天博客里下面这段文字的截图来做试验,截图后上传至 ChatGPT o3-mini ,并要求它 OCR 识别。之所以选择这一段,是因为其中既有汉字也有英文还有日文,而且互相之间也有逻辑关联。

在这三种语言里,都有一个同源的词汇称呼,汉语里叫它功能机,英语里说 Feature phone ,日语里则是把该英语转换为了片假名:フィーチャーフォン。我觉得这种手机虽然有些言不达意(功能,什么功能?)但从「手机就完成蜂窝网络的通话功能就可以了」这一点上来看,倒是蛮符合我的心意的。

结果我得到的识别结果是:

继续阅读

前几天偶而在书店里翻到一本搜集罗列了日本「昔話」(童话故事)的故事,翻着翻着看到了「鼠净土」这一项。

这个童话说小众其实也不算小众,至少在日本是如此。记得我刚开始学日语的头几年,买过一本日本小学生的课本(一年级?)里面就有一个老爷爷遗落了一个饭团,饭团滚进老鼠洞的故事(好像是这么一回事)。后来,在《 Fate / Ground Order 》里实装了从者「大黑天」,其宝具就是「鼠浄土」。

可见,无论是在日本的课本中,或是流行文化中,这则「鼠浄土」童话应该都应该不算是太过冷门的。

然而,我拿它问了一下 ChatGPT ,并且是用汉语和日文都问了:

日本的童话《鼠净土》是一个怎样的故事?

继续阅读

ChatGPT 的 o3-mini 刚推出的第一天,就有用户展示了其对物理运动理解(小球滚动、弹跳等)相当出色,并且反映在其做出的程序中。

于是我试了试,让它用静态的 HTML ( 也就是不用到服务器 )来模拟《超级玛丽》的 1-1 关卡。

效果如下:

嗯,动是动起来了,弹跳以及踩到怪物的「触感」也有那么一些像。不过就是关卡的构造(砖头、水管位置等)不太对。

这么说起来,为什么一个大语言模型会知道《超级玛丽》游戏关卡画面的内容啊?

下面是代码:

继续阅读

记得在之前的一篇博客《向着未来的人而写博客》中我提到了复活这件事。虽说很大程度上是一种妄想,不过或许也有几分合理性。因为从「死」的定义上来说,如果能复活,那么必然是死后才能复活,而不可能是死前就复活了的。那么,起死回生的技术和手段,也只能掌握在未来人的手中。

而就在前几天, ChatGPT 发布了 o3-mini 模型,这个可谓目前这个时间段上最强的推理模型,于是我来问了一下它:

wildgun 问:

谈谈复活的可能性以及为止要做的准备。我的想法:目前已知人的寿命是有限的。而人死后,周围世界的人和事应该依然存在(即存在独立于人的外部客观世界)。那么:人死后,世界的科技依然会发展、进步、取得一个又一个成功,那么总有一天,应该就能发明出把死者复活的技术(即便是在遥远的将来)。那么,我在有生之年,应该做一些怎样的言行、准备工作等等,才可以让未来掌握了复活技术的人,发现我并愿意优先复活我?请从各方面来考虑,并给我建议!

继续阅读

这一篇博客是一个小小的抱怨。简而言之吧,就是在本可以帮助用户的对话场景下,ChatGPT 刚推出的 o3-mini 模型却连续拒绝了我三次。

我碰到的具体问题是:我的 Macbook Air 的 Apple Care 保修快到期了。那么在到期之前,我检查了一下电池健康度,目前是 81% 。我希望能在到期结束之前,将电池健康度消耗到 Apple 规定的 79% 以下,这样我可以在本期 Apple Care 中免费进行电池更换。

虽说我也大致知道如何提高电池健康度消耗的方法——就是增加消耗呗!但我还是问了 o3-mini ,看看目前最强模型会给出什么更有效的答案不。

结果被连续拒绝了 3 次,毫不留情面。

我这可不是造枪械造火药造核反应堆之类的伤天害理的事啊,我就想快一点消耗电池啊!

啧啧。

OpenAI 推出了新模型—— o3-mini ,据说其在编程和推理方面的能力挺出色。我在互联网上也看到了不少用户发现的惊喜实例。

不过我反其道而行,想试试看再叙述字符的字形这个大语言模型长期以来不擅长的领域,这次新的 o3-mini 模型是否有所改善。

下面就是记录啦。各位自己看了之后,并且看到最后,请结合自身情况回答一下最后一个问题吧。

我想测试一下你是否了解字符的形态,比如,字母G是怎么书写的?

继续阅读

我在测试 ChatGPT 新开放的任务( Task )功能。为了测试嘛,自然是要提高推送频率。我还想把它的邮件通过 iOS 的快捷指令功能进一步扩展成能操作其他 APP 的一个操作。

虽然还没调试好,还没抓到规律,不过在调试期间我发现 ChatGPT 为我生成的语句挺有意境的。其实我只是指定了「我想测试一下任务(TASK)功能,请你每60分钟给我发一个通知和一个邮件,告诉我一个随机中文和日文字符串(不长于 100个字节)。并且立即执行一次。」我本来设想的是它发的应该是完全是随机字符串。不过我没想到它发着发着却发起了很有意境的短句。

如下,请各位品一品——

随机字符串: 春風和煦,桜花満開。

随机字符串: 昨日の夢は、今日の希望。未来を照らす光。

随机字符串: 星月交辉,静夜流光。夢の中の世界は美しい。

继续阅读