物理科研工作在AI相当发达的未来还有多少价值?
TL;DR
作者担忧在AI高度发达的未来,物理科研工作可能被大语言模型替代,特别是在模型到代码翻译和优化方面,质疑自身价值和就业前景。
今晚我本来在给好朋友写信,探讨我们的未来,写着写着我有点沉默,突发一些感想。 问题背景: 例子三则: 大家几乎都体验过脚本,代码对数据处理效率的提升。 原则上,大家只要有终端机就能实现,点对点通信,群聊(广播),数据查询。但是WEB,通讯软件让接触信息,获取信息的成本大大降低,效率大大提升。 如今的大语言模型使得我们学习新知识(至少是接触新知识)的成本几乎降到了零。你可以在很短的时间内对一个很大的领域有一个框架上的了解。 当然,按照知乎传统,我们应该先问是不是,再回答对不对。如果不是的话,大家也可以谈。 个人背景:我虽然一般声称自己是做理论上的科研的,但是我发现我的工作的主要部分是模型到代码的人工翻译员。而这个部分的工作恰好是大语言模型能有效替代的。大语言模型在现在可能只需要你输入一些基本的思路,就能完成从公式推导到代码实现再到代码的验证与优化。 其实推导公式,大部分的时候思路还是比较清晰的。 但是对于模型到代码的翻译呢,这个步骤要经历大量的转写,校正过程,我个人的错误率还是很高的。大语言模型我看在这个方面的表现还是很不错的。 至于模型的优化,那么就更加麻烦了。 我个人搭建和维护过组内的集群。我对并行计算,GPU,FPGA计算也略有了解和实践。但是我所能了解的知识却告诉我,优化,并行,异构这些操作还有大量的细节等待我学习。而我自我评估是,我个人几乎是不太可能完全掌握的。大语言模型在这个方面有着天然的优势,他可以轻松得学习大量的技术文档,当他掌控了底层权限后可以自主调参调优,这能大大减轻我的工作负担。 我的问题:在一个大语言模型接管了模型到代码的翻译和代码验证调优的工作中,我唯一的贡献只是提出新的思路(大多数时候我连提出完全新的思路都不太可能,尤其是当我们的模型只是在做各种方法和研究目的的排列组合时),我还有多少不可替代的价值? 第二个问题是有关效率的。当一个曾经需要几个月才能完成的工作现在只需要几天甚至几小时,cyberpunk提前在理论物理界实现了,我做理论物理的意义还剩下多少(当然本来也没有太多就是了)。本来我可以捡一些超人不愿意或者觉得繁琐的工作做一做,现在大语言模型替代了我。我该去哪里就业呢(好在我本来也对搞一辈子科研没什么兴趣,我们学物理的做什么也不算转专业嘛)。 现实情况,或者说已经实现的情况就是,我们在本地部署一个大语言模型,在一个节点上安装openclaw(或者别的什么),他已经可以自己完成很多研究工作了(当然要花电费)。这件事情我刚刚做过,不如说就在十几个小时前。 我的科研条件还是属于非常简陋的。世界有多发达,我也只能通过新闻,公众号和文章看到,所以我要是说的不好,大家也理解,包容。