这几天看到GPT技术在往两个截然相反的方向发展得越来越离谱了,变化也是真的太快太快了。
一个是AutoGPT路线,主打一个AI联网自主行动的能力,面对复杂需求时甚至可以分裂成多个AI协同完成任务。
另一个是GPT4ALL,作为开源的LLM模型可以被部署到个人电脑上,不需要网络、Token、API,只接受主人给它的资源,最后形成一个私有化的知识应答系统,任何一台普通配置的电脑都能运行。
如果AutoGPT代表的是科幻电影里那种「天网」类型,让AI在无干预的情况下自己解决问题,那么GPT4ALL就是把AI又重新封装到了U盘里,专注于服务私人场景。
很多数字骨灰盒都是用了GPT4ALL及相似技术,简单来说就是用个人数据作为语料去训练一个独立的AI工具,然后借助自然语言交互去完成信息的提取。
其实我都觉得自己对此有很高的兴趣,我正在尝试跑通一个流程,就是以一份书单(大概几千本)为底,用AutoGPT的方式帮我收集电子版文件,然后全都喂给本地的GPT4ALL,最后写一个最简单的前端页面。
那么是不是当我在了解货币政策的时候,随时可以用自然语言去问米塞斯、弗里德曼、伯南克这些大佬?让AI从那些浩瀚如烟的著作里精确的找到并整理出可以解答我的疑问的内容?
当我需要论证某种英雄主义的时候,也可以让AI从茨威格、艾萨克森、欧文·斯通这些最负盛名的传记作家里问出对应的人物典故,四舍五入,也就相当于我可以随时调用人类历史里最精粹的创作成果?
我觉得最重要的是,LLM可以解决长期困扰大家的一个难点,那就是知识的自由读取,第一我们也许读不了那么多的书,第二读了之后记忆也是抽象的,未必能够随时读取,第三用笔记或者存档这种方式以前也只能支持关键词的精确搜索,如果我的需求是笼统的——比如「米塞斯对德国的货币政策提了那些意见」——搜索就是不管用的,必须要回去翻阅、费力寻找。
总之还是挺激动的,等我把这个方案跑通了再跟你们汇报吧。
from 阑夕 2023-04-13
接入方式区别
官方接口 | ChatGPT网页版 | ChatGPT API |
---|---|---|
官方开放,稳定性高 | 由acheong08破解网页版协议接入 | 由OpenAI官方开放 |
一次性回复,响应速度较快 | 流式回复,响应速度较慢 | 响应速度较快 |
收费,0.02美元/千字 | 免费 | 收费,0.002美元/千字 |
GPT-3模型 | GPT-3.5模型 | GPT-3.5模型 |
任何地区主机均可使用(疑似受到GFW影响) | ChatGPT限制访问的区域使用有难度 | 任何地区主机均可使用(疑似受到GFW影响) |
截止目前,20230417几种接入方式区别,来自QChatGPT