社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  chatgpt

程序员撑过ChatGPT一周年!不仅没被取代,还把AI用得贼6:10分钟开发一个应用

CSDN • 1 年前 • 202 次点击  

不知不觉间,距离掀起全球新一轮 AI 革命的 ChatGPT 出道,已经过去一周年了。在这场颠覆性的 AI 革命中,许多企业和程序员们逐渐形成了一个共识:“不会用 AI 就将被淘汰”。

为了避免“被淘汰”,这一年来众多企业和程序员全力拥抱 AI、开发各种 AI 应用——连程序员自己都不禁要吐槽一句:“我们是为数不多喜欢革自己命的群体。”

作为一位(上学时候)接触过代码的技术编辑,最近,我的程序员朋友们给我安利了一个产品,说 10 分钟就能用它开发一个 AI 应用!

程序员:“你可以随时用它做一个’证件照‘应用、一个专属 AI 秘书或一个 AI 心理咨询师……你就说你想做啥,咱现在就缺需求和创意。”

我:“啥玩意儿???”

10 分钟开发一个 AI 应用,是 真的!

讲句实话,听到 “10 分钟开发一个 AI 应用”时,我的第一反应是:你就吹吧!虽然本人并不从事开发工作,但基本常识还是有的——光是部署个 AI 应用的开发环境,就不止 10 分钟了。

但是本着 FOMO(fear of missing out)的心态,我还是去体验了一下。

结果,跟着官网上的文档和操作手册,我真的花了不到 10 分钟做了一个“程序员小助手”:程序员可以将自己想要阅读的代码复制给它,并给出指令“解释代码”,“程序员小助手”即可给出每行代码的意思和整体逻辑。

不仅如此,我还用同样短的时间做出了一个设计助手,实现“AI 爆改灵魂画手”,开了一个类似于妙鸭相机的“个人专属照相馆”。

体验至此,我满脑子都是:这也太香了吧!

连我这样的菜鸡,都可以轻易做到“10 分钟开发一个 AI 应用”:除了等待两个模型初始化,我几乎没再花费其他时间——而这个产品,就是腾讯云高性能应用服务(Hyper Application Inventor,简称 HAI)。

开发 AI 应用难,腾讯云 HAI 来破局

许多企业和开发者全力拥抱 AI、积极开发或接入各种 AI 应用,但在这个过程中却发现,这件事似乎并没有想象中简单:硬件选型、环境部署复杂、开发门槛高、技术人才不足等一系列问题,都在阻碍着 AI 应用的落地。

首先,你要过的第一关:硬件选型。

原来,要开发一款 AI 应用,你要先有 GPU 算力。先别说 GPU 有多贵,就说一卡难求的今天,云几乎是最佳选择。

然而,先要仔细评估业务场景需要配置什么类型的 GPU、CPU、内存,再从一大堆产品类目中分别挑出合适的存储、网络、安全产品,并且自行选择 CPU 内存配比、GPU 卡型。

第二个难关:环境部署复杂。

举个例子。相信对于不少开发者而言,进入开发工作之前的模型环境部署,是一件十分繁琐却又无法绕开的事情。以部署和安装 ChatGLM2-6B 模型环境为例,开发者通常需要准备好以下工具和环境:

- Python 3.6 及以上版本

- TensorFlow 2.4 及以上版本

- PyTorch 1.6 及以上版本

- CUDA 10.0 及以上版本

- CUDNN 7.6 及以上版本

- Git

- wget

- unzip

- vim 或 emacs 编辑器

准备好之后,开发者要从 GitHub 上下载 ChatGLM2-6B 源代码、安装依赖项、配置模型路径等等。

当然,以上这一切对于经验丰富的开发者而言自然不在话下,但如果是初次接触的新手小白,情况可能迥然不同——好不容易把模型环境部署完了,结果抬头一看天都黑了,只能叹口气:要是谁能帮我把这些准备工作都做了就好了……

在这种背景下,近期腾讯云推出了“开箱即用”的高性能应用服务 HAI 平台,希望解决开发者的难题。

HAI 能够提供即插即用的算力与常见环境,可帮助中小企业、开发者及个人用户快速部署语言模型(LLM)、AI 作画、数据科学等高性能应用,原生集成配套的开发工具与组件,从而大幅提高应用的开发生产效率,并大幅降低开发门槛。

腾讯云 HAI 支持智能选型,可根据 AI 应用自动匹配推选 GPU 算力资源,实现最高性价比,减轻了开发者在选型上的负担。

针对上面提到的复杂环境部署,腾讯云 HAI 为开发者事先预置了 StableDiffusion、ChatGLM2-6B、Llama2 7B 等热门模型及常用插件,用户只需要点选,几分钟即可自动构建 LLM、AI 作画等应用环境,降低了开发者的技术门槛。

如果 HAI 上面预装的模型满足不了你的天马行空,你也可以根据自身需要,将最新的开源模型下载部署到 HAI。比如最近很火的 Stable Video Diffusion 模型,让图片动起来。

HAI 还支持了"学术加速"能力,线路自动择优,大幅提升对部分主流学术资源平台的资源访问、下载速度。

腾讯云甚至还想帮你降低第三道难关:开发难度高。

原来大部分的云服务器操作系统,大部分是基于码农常用的 Linux 内核研发。开机之后基本需要通过使用命令进行交互,没有代码基础的同学可谓“一脸懵逼”。

在操作界面上,HAI 提供 WebUI 等直观、易用的可视化算力连接方式,一键进入服务,对开发者友好、即开即用的图形界面容易上手,让开发者能更好地进行理解和操作。

有了以上这些特点,也难怪能 10 分钟就搞定一个 AI 应用——HAI 不仅把 AI 应用开发的前期准备工作全部简化,其提供的 WebUI 等可视化界面更是大幅降低了开发门槛。

需要更多爆款应用,AIGC 时代才会来

现在的 AIGC 时代,最不缺的是大模型,最缺的是算力、创意与应用场景。

基于此,我们跟腾讯云异构计算产品负责人宋丹丹聊了聊。她表示,ChatGPT 出现了之后,引爆了大家的想象,但目前更多的探索还是在大模型等技术层面,实际落地的应用、实用的工具,还没有真正落地以及被广泛使用。腾讯云推出 HAI 的初衷,就是希望可以降低 AIGC 应用的开发门槛,不让代码阻碍创意的落地。

我们希望让更多的人可以参与进来,而不是围观甚至被落下。

如果不让越来越多的人学会使用 AI 或者创造 AIGC 应用,其实 AIGC 应用会变成一种特权,而不是让技术真正地“赋能”每一个人,也只有在这样的情况下,才会有更多创意与爆款应用落地,我们所期待的 AIGC 时代才会真的到来。

基于这样的理解,腾讯云 HAI 的产品团队首先筛选出:哪些人,被技术门槛挡在了外面?答案显然不是大厂,也不是完全的小白用户。

HAI 所面向的用户,腾讯云将其分成两类:

一类是研发类用户,原来可能是做前端等岗位,虽然有研发经验,但是在 AI 领域的知识和工程经验比较少。他们感兴趣、也希望尝试开发应用,但算力的获取、部署运维的复杂,都成为了挡在前面的门。正如前文所及,部署一个 AI 开发环境,是如此复杂,足以劝退大部分有想法的开发者们。

另一类是应用型、或可称为设计类用户,主要是学生和设计师等。这类用户的技术不强,需要可视化的交互界面来操作,但他们的创造力和应用场景需求很强:市面上丰富的 Stable Diffusion 模型,可以让他们的作品变得更加精美。针对这类用户,腾讯云会提供比较详细的文档教他们怎么换模型,且不需要懂代码。

另一问题是:为什么是现在推出 HAI?

“之前的图像识别、语音识别、自动驾驶等传统的模型,对于长尾用户来说意义不大,更多还是被大公司所使用,个人应用不起来。”宋丹丹解释,“但去年火起来的大语言模型或者说通用人工智能浪潮,对很多个人开发者来说是有使用价值的。”

在这波浪潮中,腾讯云看到了许多丰富的开源模型,规模在 7B 和 13B 不等,用户无需对模型进行重新训练,只需对模型做微调即可创建一个独立的应用。此外几个爆款应用的出现,也让业界看到了应用生态的巨大想象空间。

在内测阶段,已经有不少用户使用了 HAI,开发出一些比较有意思的应用,比如儿童照相馆、“看图识成语”小游戏、小学语文教案制作、英文润色专家、AI 周公等。

“我们相信产品正式上线之后,会看到更多用户的创造。”宋丹丹表示。

AI 不只绘画与对话,未来会聚焦 ModelOps

目前,HAI 产品刚刚上线,主要针对常见的应用场景与使用人群,做了相关环境与模型的预装,包括:

(1)AI 作画/设计

在如今迅速发展的 AI 领域中,投身于 AI 作画的设计师和开发者们越来越多。为此,HAI 预装了主流的 AI 作画模型,如 Stable Diffusion 等,并内置了常用插件等,使开发者、甚至是非专业技术背景的创作者,都能轻松部署和优化 AI 绘画模型,专注于创意的表达而无需深入研究底层技术和繁琐的技术配置。

(2)AI 对话/写作

ChatGPT 的一炮走红,让语言模型技术也在不断进步,基于此,HAI 预置了一系列强大的语言模型,如 Llama2、ChatGLM2 等,确保开发者能在最短时间内完成语言模型的部署工作,并保持高度的稳定性和可靠性,便于研究者和开发者更好地适应不同的语言处理任务,不在技术细节上再耗费时间。

(3)AI 开发测试

除了 AI 大模型外,HAI 还为开发者提供了一个理想的工作平台:预置了主流的 AI 框架和工具,如 TensorFlow、PyTorch 等,使开发者能更轻松地进行算法设计和模型优化(如新算法的原型开发、模型微调与迁移学习、深度学习框架的交叉测试等等),无需过多关注底层的硬件兼容性和软件配置问题。不仅如此,HAI 还预置了 Notebook、Python 环境以及主流分析软件,因此数据科学家也能在 HAI 上快速进行数据分析和图标处理。

当然,以上这些应用场景只是围绕 HAI 预置的某个模型,而它还支持让开发者自行下载开源模型部署到环境中,也支持多种模型同时使用,开发者可根据项目需求灵活选择组合,实现应用的快速扩展和迭代,以此发掘新的业务模式和机会。

关于 HAI 的未来产品规划,宋丹丹也进行了分享:针对 AI 场景,HAI 的整体思路是要匹配模型的发展阶段,为用户提供他们最需要的产品能力。

现阶段许多开发者需要通过多个模型组合,做出一个 MVP 来快速推向市场,测试用户的反应。因此,HAI 目前聚焦在如何让用户最快速、最省事、最低门槛地完成这个“快速验证”的过程。

一旦这个 MVP 经过验证获得了巨大成功,开发者就会有大规模部署需求。因此,未来不排除 HAI 会往大规模集群部署方向规划与优化:前需求弱,是因为爆款应用还没出现;而未来一旦出现,多种能力势必要持续完善。

此外,未来 HAI 可能会围绕开发者的需求、ModelOps 的路径来构建应用服务,在高性能算力的基础上,可能还会上类似开源模型聚合、数据集等服务。

当然,HAI 也并非只能满足 AI 场景的需求,例如科学计算、视觉渲染等,也将是 HAI 会陆续完善的方向之一。

结语

AIGC 发展至今,开源和闭源的“路线之争”持续不断。

开源模型有着强烈的生命力,且发展速度很快。已有的爆款应用很多也基于开源模型,但其商业化落地一直备受挑战;另一方面,大型互联网公司与国内部分重要行业,都有着使用自研或闭源模型的需求。

作为平台型企业的腾讯云,自然是“成年人不做选择”,开源、闭源两条腿走路,同时满足大型企业与开发者等不同用户的场景需求:

  • 面向大型企业级客户,腾讯云已经构建了全栈生态。在 IaaS 层,腾讯云提供了面向大模型训练的 HCC 高性能算力集群与通用 GPU 算力;在 PaaS 层面,提供云原生数据湖仓和向量数据库,以及面向大规模训练加速的 TI 平台;在模型层,通过模型商店 MaaS,支持接入腾讯混元大模型及 20 多个主流开源模型。

  • 面向开发者,腾讯云此前推出了 Coding DevOps、云开发、Cloud Studio、轻量云服务器 LightHouse 等产品,希望降低开发者构建应用的部署、运维和开发成本。如今,HAI 的推出进一步丰富了腾讯云面向开发者侧的 AIGC 产品矩阵。

随着 HAI 这类平台出现,AIGC 出现越来越多爆款应用的可能性似乎正在增加:HAI 提高效能、降低门槛、对开发者友好的特点,让越来越多程序员能无缝体验 AI,有关 AI 应用的无限创意将快速落地……正如 HAI 平台的产品愿景所说:让每个开发者都能开发自己的 AI 应用。

在这种趋势下,AI 技术必将进一步发展并日益普及,同时这也将为 AI 对未来世界的影响赋予更多可能性。

HAI 平台体验地址:

https://cloud.tencent.com/product/hai

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/165838
 
202 次点击