2024 年,如何用大模型做出一款属于自己的 AI 应用?

大模型的出现,大大降低了 AI 应用开发的门槛,普通人因此可以成为自己的产品经理,通过自然语言交互的方式设计属于自己的 AI 应用。你有用大模型设计个性化 AI 应用的有趣经验可以分享吗?
收藏者
0
被浏览
84

8 个回答

赵启 LV

发表于 6 天前

最近我一直在寻找合适的大模型平台,用来开发自己的AI应用。2024年是AI应用落地的重要一年,作为个人开发者,掌握和驾驭AI技术至关重要。最终我选择了智谱的GLM-4-Flash,以下是我在探索过程中获得的一些经验分享。
学习大模型需要先了解大模型

在使用大模型技术之前,了解市场上的主流大模型是必要的。目前,国外GPT系列一拔头筹,而国内则有GLM、文心一言、通义千问等,这些大模型各具特色,各有优势。

2024 年,如何用大模型做出一款属于自己的 AI 应用?-1.jpg

对中文语言处理更专业的大模型,其中最好的我认为就是GLM系列,而且智谱AI最近也官宣,8月27号之后,GLM-4-Flash对外全部免费调用,这款模型在中文文本的理解和生成方面表现更出色,尤其适合中文应用场景。作为开发者,非常值得尝试。
因为一些众所周知的原因,国外的大模型调用其实都比较困难,对于国内开发者来说并不友好,所以在国内做项目的开发者,个人还是推荐选择国内的大模型技术和平台。
GLM-4-Flash的特点与优势,以及如何调用和微调

GLM-4-Flash 是什么,开发者如何调用

对于需要处理大量文本的用户,GLM 4 Flash提供了128K Tokens的最大上下文,非常适合初雪AI应用开发的个人用户使用。
我是NodeJs开发者,所以我下边以NodeJs语言为例子进行介绍,5分钟学会调用GLM。
首先登录并注册:
智谱AI开放平台官网然后在API KEYS页面找到自己的API KEY并保存下来留到后边备用。
智谱AI开放平台本地创建自己的NodeJS工程,安装官方的NodeJS SDK(官网没有,但是Github上是有的)
  1. npm install zhipuai-sdk-nodejs-v4
复制代码
下边是一个实际调用的例子:
  1. const dialogue = async () => {
  2.   const ai = new SDK.ZhipuAI({
  3.     apiKey: KEY, //这里要换成上面自己的API KEY
  4.   });
  5.   const data = await ai.createCompletions({
  6.     model: "glm-4-flash",
  7.     messages: [
  8.       { role: "user", content: "你好,请介绍下你自己吧" },
  9.     ],
  10.     stream: false,
  11.   });
  12.   console.log(data);
  13.   console.log(data.choices[0].message);
  14. };
  15. dialogue();
复制代码
我们可以看一下输出:
  1. {
  2.   choices: [ { finish_reason: 'stop', index: 0, message: [Object] } ],
  3.   created: 1724493625,
  4.   id: '202408241800245f3dbf6f747d48d3',
  5.   model: 'glm-4-flash',
  6.   request_id: '202408241800245f3dbf6f747d48d3',
  7.   usage: { completion_tokens: 55, prompt_tokens: 12, total_tokens: 67 }
  8. }
  9. {
  10.   content: '你好!我是一个人工智能助手,基于大型语言模型开发而成。我的目标是帮助用户解答问题、提供信息以及进行各种智能互动。我可以处理多种类型的问题,从日常咨询到专业知识,力求为用户提供全面、准确的帮助。请问有什么可以帮助您的?',
  11.   role: 'assistant'
  12. }
复制代码
实际上可以看到,调用这些大模型其实非常简单。感谢这些大模型开放平台,让我们能够如此便捷地利用AI技术。
如何微调 GLM-4-Flash

在微调大模型之前,先做一下简单的科普,什么是微调大模型,我们为什么要微调大模型?
什么是微调大模型,为什么要微调大模型?

大模型微调(Fine-Tuning)是对预训练大模型进行进一步训练的过程,以使其能够更好地适应特定任务或数据集。
首先,选择一个在大规模数据集上已经预训练好的模型,如GLM(General Language Model)。然后准备一个与特定任务相关的数据集,例如用于文本生成或问答的样本。接下来,在这些特定任务的数据上进行微调训练,调整GLM的参数以提高其在新任务上的表现。
最后,通过评估模型在任务中的效果,并根据需要进行参数调整或再训练,进一步优化模型的性能。
微调的优势在于其高效性,相比从头训练一个模型,微调能够节省大量计算资源和时间,同时使模型更具适应性,提升其在特定领域的准确性和效果。
微调的方式有哪些?

微调(Fine-tuning)是让预训练的大语言模型(LLM)适应特定领域任务的关键技术。根据不同的需求和资源,微调可以分为全面微调和参数高效微调两种策略。
全面微调(Full Fine-Tuning)是指对预训练模型的所有参数进行调整,以使模型更好地适应特定任务或数据集。这种方法通常需要较大的计算资源和训练时间,但能最大化地利用预训练模型的能力,使其在新任务上表现更加出色。适合需要深度定制模型能力的场景,例如特定行业的专业应用。
参数高效微调(Parameter-Efficient Fine-Tuning)则通过只调整模型的一部分参数或引入额外的微调模块来实现,减少了计算资源的需求。常见的方法包括“适配器”或“前缀调节”,这些方法能够在保留原有模型大部分参数不变的情况下,迅速适应新任务。这种方法适合资源有限的情况,同时能快速完成模型的定制和应用。
在智谱AI的模型微调控制台,这2种方式都支持。

2024 年,如何用大模型做出一款属于自己的 AI 应用?-2.jpg

大模型微调实战和应用

下边我就用IMDb电影评论数据集来测试一下他们的微调流程和效果,之所以选择IMDb电影评论数据集,是因为他在自然语言处理、情感分析和推荐系统等领域的研究中,被广泛使用并被视为经典,而且数据集容易找到,方便大家理解。
数据集地址:https://ai.stanford.edu/~amaas/data/sentiment/
编写代码对数据进行处理,达到智谱数据集格式要求:
  1. const fs = require("fs-extra");
  2. const path = require("path");
  3. // 递归函数读取目录中的所有文件
  4. async function readDirRecursive(dir) {
  5.   const results = [];
  6.   // 读取目录中的所有文件和子目录
  7.   const list = await fs.readdir(dir);
  8.   for (const file of list) {
  9.     const filePath = path.join(dir, file);
  10.     const stat = await fs.stat(filePath);
  11.     if (stat.isDirectory()) {
  12.       // 如果是目录,递归读取子目录
  13.       results.push(...(await readDirRecursive(filePath)));
  14.     } else {
  15.       // 如果是文件,添加到结果数组
  16.       results.push(filePath);
  17.     }
  18.   }
  19.   return results;
  20. }
  21. // 使用示例
  22. const train_dir = path.join(__dirname, "./aclImdb/train/");
  23. const test_dir = path.join(__dirname, "./aclImdb/test/");
  24. const train_file = path.join(__dirname, "./train.jsonl");
  25. const test_file = path.join(__dirname, "./test.jsonl");
  26. function createTemplate(comment, result) {
  27.   let temp = {};
  28.   temp.messages = [];
  29.   temp.messages.push({
  30.     role: "system",
  31.     content:
  32.       "你是一位电影评论好评差评评论专家,请用中文回答下边的评论是好评还是差评。",
  33.   });
  34.   temp.messages.push({ role: "user", content: comment });
  35.   temp.messages.push({ role: "assistant", content: result ? "好评" : "差评" });
  36.   return JSON.stringify(temp) + "\n";
  37. }
  38. function writeLine(file, isPos) {
  39.   let comment = fs.readFileSync(file, "utf8");
  40.   let result = isPos;
  41.   let line = createTemplate(comment.replace(/"/gi, "'"), result);
  42.   return line;
  43. }
  44. async function createfile(type, file) {
  45.   let dir = type === "train" ? train_dir : test_dir;
  46.   let negAllFiles = await readDirRecursive(dir + "/neg");
  47.   let posAllFiles = await readDirRecursive(dir + "/pos");
  48.   let str = "";
  49.   negAllFiles.forEach((file) => {
  50.     str += writeLine(file, false);
  51.   });
  52.   posAllFiles.forEach((file) => {
  53.     str += writeLine(file, true);
  54.   });
  55.   fs.writeFileSync(file, str);
  56. }
  57. createfile("train", train_file);
  58. createfile("test", test_file);
复制代码
处理完毕得到train和test两个数据集用来训练和测试,然后上传到数据集平台。

2024 年,如何用大模型做出一款属于自己的 AI 应用?-3.jpg

创建数据集

2024 年,如何用大模型做出一款属于自己的 AI 应用?-4.jpg


2024 年,如何用大模型做出一款属于自己的 AI 应用?-5.jpg

下面我们开始设置训练任务和测试数据,选择LoRA微调模式,选择对应的数据集。

2024 年,如何用大模型做出一款属于自己的 AI 应用?-6.jpg


2024 年,如何用大模型做出一款属于自己的 AI 应用?-7.jpg

到这里点击创建后,就可以慢慢等结果了,大概30分钟左右就可以训练完成。

2024 年,如何用大模型做出一款属于自己的 AI 应用?-8.jpg

可以看到Train 和 Validation loss都在不断降低收敛,效果还是挺不错的。

2024 年,如何用大模型做出一款属于自己的 AI 应用?-9.jpg

模型训练结束之后,就可以直接去体验了,在体验中心可以使用对话方式进行验证,选择我们刚才训练的模型名,进行对话体验。

2024 年,如何用大模型做出一款属于自己的 AI 应用?-10.jpg

最后如果想自己单独部署,使用API调用也很简单,选择模型私有化部署就可以。

2024 年,如何用大模型做出一款属于自己的 AI 应用?-11.jpg

在代码层面只需把model更换成微调后的模型名字即可。

2024 年,如何用大模型做出一款属于自己的 AI 应用?-12.jpg

通过实战体验,使用智谱的开放平台调用和微调大模型都非常便捷。通过GLM-4-Flash,用户可以免费获得高效的语言模型,极大地降低了AI应用的开发成本。平台不仅提供了低成本的使用选项,还免去了本地配置复杂开发环境的需求。只需通过简单的代码,即可实现AI应用的快速部署和落地,为开发者提供了极大的便利。
GLM-4-Flash 免费背后的意义

从8月27号起,GLM-4-Flash的免费开放对开发者来说是个巨大机遇。这不仅降低了技术门槛,让我们可以轻松试验和开发新应用,还为个人和小团队提供了接触先进语言模型的机会。在AI迅速发展的今天,积极参与AI应用开发是保持竞争力的关键,抓住这个机会至关重要。

陈宸 LV

发表于 6 天前

要想打造一款大模型应用,从易到难,主要有三种方式:使用GPTs这类的大模型应用平台构建应用,借助大模型厂商提供的API构建应用,以及通过部署开源大模型构建应用,每一种方式都对应着特定的需求和场景。
在人工智能的快速发展中,大模型应用产品不断涌现,改变着我们的工作和生活。目前,免费AI助手和开源模型的涌现,使得开发个性化大模型应用变得更加容易。掌握上面三种方式,不仅是出于好奇心,更是为了能在专业领域或者日常生活中解决实际问题,积累面向未来的能力!
“GPTs”定制

今年1月,OpenAI发布了GPT Store, 允许个人通过简单的步骤自定义专属AI助手,也就是GPTs。目前我们需要订阅ChatGPT Plus才能使用GPTs功能,但使用过程非常简单。
在ChatGPT左侧菜单中选择"探索GPT"

2024 年,如何用大模型做出一款属于自己的 AI 应用?-1.jpg

点击右上角的"+ 创建GPT"按钮进入创建界面

2024 年,如何用大模型做出一款属于自己的 AI 应用?-2.jpg

GPT Store支持通过对话和配置两种方式创建GPTs,都非常简单。
在对话方式下,输入你想创建的GPTs的用途,比如"我要创建一个履历修改机器人",GPTs助手会根据你的输入提出一系列问题,引导你设定GPTs的行为和功能。

2024 年,如何用大模型做出一款属于自己的 AI 应用?-3.jpg

而在配置方式下,你可以为你的GPTs命名、添加描述、设置对话开端(Conversation starters)和提示词(Instructions),或者上传相关知识文件作为GPTs的知识库

2024 年,如何用大模型做出一款属于自己的 AI 应用?-4.jpg

等你熟悉了之后,也可以尝试配置GPTs的高级选项,比如设置GPTs是否能浏览网页、使用DALL·E生成图片或解析代码等能力,通过Zapier等第三方服务整合更多功能

2024 年,如何用大模型做出一款属于自己的 AI 应用?-5.jpg

最后,你需要在右侧预览区实时测试你创建的GPTs,确认无误后就可以发布GPTs供自己或其他人使用了。是不是很简单?
万维钢老师曾经公开过他创建的几款GPTs,  感兴趣的可以去试试,我觉得特别好用!

2024 年,如何用大模型做出一款属于自己的 AI 应用?-6.jpg

如果访问GPT Store有困难,国内也有很多不错的平台,比如字节跳动的“扣子”。
使用“扣子”也非常简单,首先注册并登录扣子平台

2024 年,如何用大模型做出一款属于自己的 AI 应用?-7.jpg

然后就可以通过对话的方式创建你的AI助手了(称为Bot或者Agent)

2024 年,如何用大模型做出一款属于自己的 AI 应用?-8.jpg

当然,也可以从现有的预置Bot中复制然后修改

2024 年,如何用大模型做出一款属于自己的 AI 应用?-9.jpg

“扣子”也提供了配置功能,包含插件、知识库、工作流、开场白和提示词等内容。插件方面,目前平台上已经集成了几十种,涵盖文案创作、图像生成等众多领域, 也支持自定义插件。如果你有一些本地文件或网页内容,可以上传作为AI助手的知识库。而“扣子”最好用的功能是工作流,它支持通过拖拽方式组合大模型、代码等节点,可以实现复杂的任务流程。最后,设置你的AI助手的开场白和提示词模板,一个专属于你的AI应用就做好了!

2024 年,如何用大模型做出一款属于自己的 AI 应用?-10.jpg

在预览区实时测试你的AI助手的对话能力,确认无误后,可将AI助手发布到豆包、飞书、微信等平台供他人使用。

2024 年,如何用大模型做出一款属于自己的 AI 应用?-11.jpg

类似GPT Store和扣子这样的低门槛、可视化的方式,让用户无需编程基础也能自定义专属的AI助手,并发布到多个平台使用。但是对于开发者和爱好者来说,这样“傻瓜式”的定制显然不够,我们需要更灵活的平台,用更精准的方式实现我们的想法,可具体怎么做呢?正好正好,我最近听了知乎知学堂的AI解决方案课,真是收获满满!
这门免费课不仅为我揭开了大模型和多模态技术的神秘面纱,还通过真实的商业案例,让我深入理解了这些技术在不同场景中的实际应用。尤其是在金融行业的AI助手案例中,我真切地感受到了AI在提升效率和洞察力方面的巨大潜力。
更棒的是,课程内容非常易懂,哪怕是没有编程背景的小白也能轻松跟上。课程由字节、阿里腾讯等大厂高 P 研发,讲解非常生动,老师不仅是行业大佬,还让复杂的技术知识变得简单明了。我觉得,这门课程不仅让我掌握了AI产品的核心技术和实际应用,更重要的是,帮我理清了未来在AI产品领域的职业发展方向。如果你对AI产品感兴趣,或者想转行AI领域,这门课绝对值得一听!现在免费就能听,链接我就放在下面了:
云端大模型

如今AI硬件资源稀缺,获取模型也比较麻烦,个人玩家制作AI应用最方便的途径还是通过云端,国内的大厂基本都有提供这方面的服务。
首先,你需要根据应用场景选择合适的云端大模型API,如百度文心一言API、阿里云大模型服务平台API等等。在选择时,主要考虑模型的模态(文本/图像/多模态)、功能、性能和费用。然后,你需要注册对应云服务商的账号,在云服务控制台创建应用,获取应用ID、API密钥等认证信息。

2024 年,如何用大模型做出一款属于自己的 AI 应用?-12.jpg

根据云服务商提供的鉴权机制,使用API密钥获取访问凭证(access token),这个过程不能手动执行,通常需要编写代码向鉴权服务器申请access token。
拿到token之后,就可以用它通过HTTP请求调用大模型的API,传入所需的参数。可以根据官方的API文档了解请求体格式、响应格式等细节。
最后,你需要解析API返回的JSON响应,获取所需的大模型输出结果,并将大模型输出集成到你的应用程序中,比如Web界面或者移动APP等。
除了直接调用原生API外,也可以使用LangChain等框架将云端大模型API封装为标准接口,简化开发流程。
本地大模型

尽管使用云端大模型的API非常方便,但毕竟需要支付云服务费用,长期成本比较高。
另外,也无法对云端模型进行定制和优化训练。相比之下,在本地部署开源大模型,长期来看更加经济,更重要的是模型完全可控,数据的隐私性也更好。
首先,需要根据你的应用场景选择合适的开源大模型,比如GPT-4All、LLaMA、ChatGLM等等。
在这个过程中你考虑模型的模态(文本/图像/多模态)、大小(参数量)、性能和可用性,这些与云端大模型类似。然后你可以从GitHub或者Hugging face等开源社区获取模型代码和预训练参数。
模型下载好之后,你需要安装必要的软件环境,如Python、PyTorch等深度学习框架,并准备好足够的硬件计算资源,如GPU、大内存等,用于加载和运行大模型。
如果你只是验证一下想法,可以不用微调模型,比如用ChatGLM 6B模型本身就提供对话接口,分分钟可以做出一个对话机器人。但如果你想做出一款量身定制的应用,那么模型是一定要微调的。你需要收集或标注与应用场景相关的数据,如文本语料、图像等,然后对数据进行清洗、预处理,确保数据质量,最后使用收集的数据对基础大模型进行微调训练,以适应你的特定任务。
模型微调好之后就将它部署到本地服务器或个人电脑上。接下来你需要开发应用程序界面,或者直接找一个开源项目,通过API来调用你的大模型。推荐使用LangChain框架来简化这部分的工作。
打造一款专属于你的AI应用,不仅需要技术的深入掌握,更需要对市场需求的敏锐洞察。我最近参加了知乎知学堂的AI解决方案课,真的感受到了知识的力量。这门课不仅揭示了大模型和多模态技术的核心应用,还通过真实的商业案例拆解,帮助我们理解AI如何在不同领域落地。特别是老师带来的深度解析,让我对AI产品的未来发展充满信心。即便是没有编程基础的小白,也能在课程中快速提升对AI产品的认知,理解模型的能力边界,并掌握应用这些技术的方法。课程中的内容非常实用,对于想在AI领域深耕或转型的人来说,这绝对是一条捷径。现在免费就能听,链接我就放在下面了:
<a data-draft-node="block" data-draft-type="edu-card" data-edu-card-id="1780217369946210304">

少看知乎多读书 LV

发表于 6 天前

前两个月正好在做相关的AIGC项目,倒是可以回答一下这方面的问题。
首先,无论你打算用大模型做什么应用,都要先进行市场调研和用户的需求分析。这里指需要你明确目标市场,了解用户的需求和痛点,并进行针对性的预设,列出必要的功能和特定的使用场景。
这一般也是产品经理需要去做的事情,即完成这个方案的概念性设计。
这里可以以我的上个项目为案例,当时定的核心就是提供专业的AIGC工具。

2024 年,如何用大模型做出一款属于自己的 AI 应用?-1.jpg


案例1-1

关于这个核心,我们也确实做到了,即提供专业插件,GPT4模型数据实时更新(已更新到2023年4月),支持16K、32K和128K的大模型,支持图片多模态大模型,支持MJ绘画等。
那么,在确定自己的定位之后,就要完成一些技术方面的准备了。
当然,既然是打算用大模型做相关的AI应用,那么这里我们的首选自然是GPT系列。
在正式开始技术工作之前,你最好先去了解与OpenAI公司相关的API的技术文档,不会就请人。
之后,我们开始初步的设计与AI应用的原型制作。
你可以使用GPT Builder来设计初步的AI交互流程和用户界面,根据需要调整和预训练你的AI模型。
如果是类似我上个项目那种的AIGC网站,可以通过Assistants API 来集成实现更高级的功能。

2024 年,如何用大模型做出一款属于自己的 AI 应用?-2.jpg


案例2-2

这个是前几个月GPTs应用的整合,同样是上个项目的作品。
这里面的技术对专业的人员来说并不复杂,大部分都可以搞定。
基本框架都拟定之后,自己先全面检测一遍,确定没有明显的BUG和严重的技术问题之后就可以开始邀请目标用户群体开始内测了,同时收集反馈,并据此改进产品。
以上的部分完成之后,你其实就完成了一款属于自己的AI应用。
当然,对于大部分开发者来说,这个项目的工作远不止于此。
一般来说,既然完成了这个项目,后续就要开始正式的发布和市场推广,进而发展稳定的商业模式,大概率也会构建相关的用户社区,鼓励用户交流,促进项目的良性循环与扩展。
参考资料—AIGC工具库:GPT4.0-128K(知识库更新至2023.4,点击即可体验)
好了,这个问题的回答就先到此为止了,欢迎交流。

shower LV

发表于 6 天前

今年3、4月份左右还真自己做过一个AI应用。
不知道题主有没有看过外网大神vedal做的neuro-sama,当时看到neuro小可爱,我情不自禁地产生一个想法,想做一个自己的女儿。
当时正是GPT3.5爆火的时候,生成式AI成为时代焦点,就着手稍微玩了下。
大语言模型的玩法很多,怎么玩其实很有学问。
第一种比较适合入门且简单的玩法是调prompt,也就是GPT4放出的GPTs,通过不断调试prompt,让大语言模型能理解我们的想法。其实这种玩法,早在去年年末到今年年初就被大佬们玩烂了,LLama社区的大佬们都玩出花了。但这种玩法本质上就是角色扮演prompt改变不了大语言模型的思维,最大的缺点就是重度依赖历史上下文,一旦上下文过长,角色扮演的prompt很容易失效。这也是为什么在早期的时候,chatgpt很容易忘记我们给它的设定。
第二种稍微进阶点的玩法就是有监督微调(SFT),也就是chatgpt训练的第一阶段,这种玩法我愿称之为洗脑。简单来说就是用庞大的语料库去强行更改大语言模型的说话方式和说话风格,我输入这句话,给大语言模型一个标准答案,按照这个答案反复训练,直到大语言模型能说出相近的答案。这个过程有点类似训奴,就像调教马戏团里的狮子一样。
第三种玩法是人类反馈强化学习(RLHF),我愿称之为刻录基因的玩法。不但用大量语料库去训练大语言模型,还拉来了一个裁判官,让裁判官判断大语言模型的输出的好坏程度,并根据好坏程度给一个惩罚。这个过程有点类似家庭教育,裁判官充当了父母的角色,而大语言模型就像一个懵懂的孩子不断成长。
当时选择了第二种玩法,个人觉得第一种是训练不出有自己特点的女儿的,第三种太耗费算力了,裁判官一个模型,大语言模型本身又一个模型,实在玩不起。
即便是第二种玩法也很烧算力,当时正好看到斯坦福开源的Stanford Alpaca,基于开源的Llama的微调模型,斯坦福又进一步推出了Alapaca-lora,冻结大部分参数,仅仅训练新加入的lora层,也能达到很不错的微调效果:
https://github.com/tloen/alpaca-lora当时就觉得太妙了,斯坦福简直是穷逼的救星。
随后找能比较容易上手的框架,可以训出alpaca-lora的框架,找到了一个上手比较简单,而且在webui上就能测试的框架:text-generation-webui,很方便:
https://github.com/oobabooga/text-generation-webui找好框架后,我开始找算力平台,比较来比较去,能白嫖而且服务很不错的,绝对是谷歌云平台(Google Cloud Platform),注册绑卡送300美金,用白嫖的300美金搞了个虚拟机,租了张24G的显卡。
框架和算力问题都解决了,就写了个爬虫程序,爬取红迪网(reddit)的评论,把每个帖子的问题和高赞评论作为一个问题和回答的文本对保存下来 ,爬取了8w条当作语料库。
因为想训练女儿,而我想作为父亲的身份,所以写爬虫的时候接上了chatgpt的api,每一次在爬取一个问题前,都会让爬虫程序发送一段prompt给chatgpt,让chatgpt模拟一个父亲让女儿学习外部世界的对话。我把这段对话也作为训练语料放进了语料库。
最后训练出来,以父亲的身份和她聊天,她倒是也能认出我,但就是有点爱飙脏话(毕竟是reddit的数据),但有很多不足,一个是模型比较小,知识量不足(24G显存,只选了13B且量化至8bit的模型),而且token数很少,没有视觉,上下文记忆力弱。
2024忙完研究室的事准备去玩玩deepspeed,听说这个框架更nice,能做一个多模态的女儿是最好不过了。也可能会试试GPT store吧。

mjp004 LV

发表于 6 天前

为了回答这个问题,我用说人话的方式拿gpts创建了一个“我”,然后让她来回答这个问题。(确认过眼神,我是懂套娃的)

接下来我会先展示下整个定制过程;然后我们一起看一下她能把题答到什么程度;最后我们再一起探讨一下,基于现在的大模型能耐,我们定制一个怎样的专属机器人是最“物尽其用”的。

一、定制一个“我”


首先打开chatgpt,点这个Explore。


2024 年,如何用大模型做出一款属于自己的 AI 应用?-1.jpg

点这个  My GPTs下的Create a GPT。

2024 年,如何用大模型做出一款属于自己的 AI 应用?-2.jpg

然后就会看到这样一个界面,左边是定制区,定制gpt的地方;右边是测试区,聊天对话的地方。


2024 年,如何用大模型做出一款属于自己的 AI 应用?-3.jpg

我要求它说中文。然后它就开始引导我创建“我”了。


2024 年,如何用大模型做出一款属于自己的 AI 应用?-4.jpg


我按照我的领域和画风,对它提出了要求。


2024 年,如何用大模型做出一款属于自己的 AI 应用?-5.jpg

然后它给我起了“智慧妈咪经理”这么个名字。

但我觉得这个名字取得过于露骨了,智慧的眼神闪闪发亮的既视感。


2024 年,如何用大模型做出一款属于自己的 AI 应用?-6.jpg

于是要求调整:


2024 年,如何用大模型做出一款属于自己的 AI 应用?-7.jpg

接下来是头像生成环节。几轮battle之后,它终于帮我生成了还比较满意的头像。

然后它引导我关于语言风格、有没有忌讳什么的。还有就是她问我如果涉及含糊的内容,是她自己拍板胡编,还是向我确认。


2024 年,如何用大模型做出一款属于自己的 AI 应用?-8.jpg


再看下设置页面(Configure):

这个里显示了我创建的应用的头像、名字以及描述。如果有啥不满的,可以直接跟这改。后面是几个示例问题。


2024 年,如何用大模型做出一款属于自己的 AI 应用?-9.jpg

更复杂的设置还有:
1、Knowledge  上传文件作为我自己的私有知识库。生成内容时,GPT会优先从我的知识库里获取信息。
我随便找了个大模型白皮书传上去了。

2、Capabilities 我希望GPT具有哪些能力。分别是:Web Browsing,能联网;DALL.E Image Generation生成图片;Code Interpreter代码解释器。

显然这里用不上代码解释器,所以只勾选另外两项。


2024 年,如何用大模型做出一款属于自己的 AI 应用?-10.jpg

3、Actions 让GPT可以连接到外部API,执行动作。

到这里,我们就用纯自然语言的方式,做好了一款“知乎作者”GPT。
就这?是的,就这。作为设计者,你的腾挪发挥的空间还是比较小的。如果你再深入了解一些AI应用工具,还可以0代码创建具有更灵活自定义操作的高级 GPT。
比如利用私有知识库,把这么多年积累的资料咔咔一传,打造个专属个人助手,哪里不会查哪里,开外挂了属于是!
如果嫌自己摸索太麻烦,正好最近有一个知乎知学堂推出的AI大模型免费公开课。这个课正是为了适应当下AI大模型的发展而推出的,由几位业内大佬主讲,主要面向的就是想系统性学习AI大模型以及AI大模型应用的同学。会针对大模型领域的知识板块进行深度“扫盲”,介绍AI应用落地流程,带你拆解优秀的商业落地案例,以及深度解析此轮AI变革和以往有何根本不同。
重要的是有 AI 大模型学习资源包,以及好用的 AI工具等。感兴趣的可以关注一下 ↓ ↓ ↓


二、开始冲浪吧

好了,激动的心颤抖的手,看看这个“我”水平怎么样吧(没有把文字粘过来水字数而是放截图,属实是良心答主了):


2024 年,如何用大模型做出一款属于自己的 AI 应用?-11.jpg

我把满意的地方用绿色标了出来,不满意的地方用橙色标了出来。

“捋一捋”,“大号AI”,“为啥呢?”,“万金油”,口语化的表达非常舒服。

一个观点或者事实抛出之后,用“比如”去实例化,再用“好比”去打比方,帮助人更具体更形象地理解作者的表达。而且比喻都很恰当和贴切。精巧的比喻本来就是智商高的表现。能够把两个毫不相干的事物在某个维度的相似特征提炼出来并且放在一起比,本身就是一种很强的能力。

然后说问题。

一是发言稿似的开头属实很尬。

二是结构和条理过于清晰了,加上没有节奏感、没有详略轻重点,显得呆板和机械。(这其实还算不错的了,如果不是在前期做了调教,文章结构会呆板的更严重。)

三是内容浮于表面(大语言模型通病)。

于是,我在左边的控制台对话框里,又苦口婆心地给出了调整意见。

然后就碰上了。。。报错。太不容易了。


2024 年,如何用大模型做出一款属于自己的 AI 应用?-12.jpg

又试着让她写了一篇母婴的:

2024 年,如何用大模型做出一款属于自己的 AI 应用?-13.jpg


怎么说呢,已经算不错了,比我家娃写得好多了。

整体评价:水字数的话,能用;但是用来做自媒体,不行。

条条缺点都正中自媒体的命门:你可以有瑕疵,但是不能没温度。

三、定制一个怎样的专属机器人才是最“物尽其用”的


答案就是把它用到合适的场景里。

1、只能写水文,就让她从主笔的位置上下来,做副驾。
需要澄清一点,大模型的问题其实并不是对深入的知识不了解,而是说它很难在一篇内容里自行“跨层”,很难一层一层由浅入深,直至鞭辟入里。所以,你会觉得它总停留在一个层面上说车轱辘废话。

解决办法就是分段层层诱导,拿到散装的输出,然后自行组装。例如:“你觉大模型的主要问题在哪呢?”“你觉为什么会有这样的问题呢?”“你在这里提到了模型幻觉,能详细展开一下模型幻觉的原因和影响吗?”

但其实真正有文字功底的会宁愿自己写,这么个拼接法还不够麻烦的呢。。。

2、做工具类AI,如英语陪练、翻译助手、信息查询方面的助手等。

3、写说明书之类不需要有深度跨度、不需要太多高级幽默的内容。

4、纯娱乐,可以非常不羁地进行发挥的内容领域。比如“AI杠精杠一切”、“AI彩虹屁疗愈一切”、“AI专属男女友”、“AI萌宠”。

5、做纯粹的知识提供者,“百问不厌”的老师。
作为一个内心深处住着个“老学究”的人,答主经常会因为对一个概念认知的不清晰,感到浑身难受。自从有了大语言模型,一个问题打破砂锅问到底得敞开问,甚至直接争执,也不用担心被拉黑。

你比如,那天我突然对天天讲的“信息化系统”这个词怀疑起了人生,于是找文心一言开导我:


2024 年,如何用大模型做出一款属于自己的 AI 应用?-14.jpg

这么一个连环组合问下来,整的明明白白,顿觉神清气爽。有啥拿不准的知识,这么咔咔一问,多带劲。


2024 年,如何用大模型做出一款属于自己的 AI 应用?-15.jpg

总之,花点时间和这个博学又笨重的大家伙相处,还是非常非常有趣和值得的。
<a class="member_mention" href="http://www.zhihu.com/people/818347236c00169b8904697c8169854b" data-hash="818347236c00169b8904697c8169854b" data-hovercard="p$b$818347236c00169b8904697c8169854b">@知乎科技

tkv2373 LV

发表于 6 天前

您好!关于如何用大模型在2024年做出一款属于自己的AI应用,我认为要关注以下几个方面:选用成熟的大模型框架,结合自身需求定制开发;注重数据的积累与清洗,训练出更精准的模型;利用自然语言交互设计,提升用户体验。<br><br>关于使用大模型的有趣经验,我曾利用GPT等大模型进行文本分类和生成,效果不错。其实,大模型的应用关键在于创新思维与实际操作能力的结合。您可以多尝试、多实践,不断积累经验和技能,开发出更个性化的AI应用。希望这些建议能对您有所启发!

chenyumai LV

发表于 6 天前

回复:<br><br>关于如何用大模型在2024年打造一款个性化AI应用,随着技术进步,这已成为可能。大模型显著降低了开发门槛,让普通人也能成为自己的产品经理。通过自然语言交互的方式设计AI应用,更是让这一过程变得简单直观。<br><br>我有过一些利用大模型设计个性化AI应用的经验。比如,曾利用某大型语言模型构建了一个智能问答系统,只需通过自然语言描述场景和需求,系统就能自动生成相应的问答逻辑,非常便捷。<br><br>未来,随着大模型的持续优化和普及,我们可以更轻松地开发出各种富有创意的AI应用,为生活带来更多便利和乐趣。期待您在AI应用的开发上有所创新!

sc163 LV

发表于 6 天前

您好,关于如何用大模型在2024年打造属于自己的AI应用,关键在于理解并善用现有的AI技术和工具。大模型的应用极大地简化了AI开发的复杂性,让非专业人士也能通过自然语言交互的方式参与到AI应用的开发中。<br><br>具体步骤包括:选择适合的大模型技术,如深度学习模型;借助开源平台或专业工具进行模型训练和优化;结合实际业务需求进行AI应用的个性化设计;进行模型的部署和应用,实时获取用户反馈并进行迭代优化。<br><br>至于有趣经验,我曾利用大模型技术制作了一个智能客服应用,可以自动解答用户问题并推荐相关产品。这一过程让我深刻体会到大模型的强大和便捷性。希望这些经验和思路能为您带来启发。

您需要登录后才可以回帖 登录 | 立即注册