Midjourney、ChatGPT 应用引发讨论,鸿海研究院携手人工智慧科技基金会、台湾大学人工智慧技术暨全幅健康照护联合研究中心举行 2023 年第一场 NExT Forum,从 AIGC 到本季引起广泛关注的 ChatGPT 话题不断,今日论坛上便将主题定为多模态基础模型探讨 AI 2.0 的发展。
基础模型(Foundation model)指的是,透过大量数据训练出能执行多种不同任务的模型(通常有规模的使用自监督式学习),例如 GPT-3、BERT、PaLM 等,都属於之。而多模态基础模型(Multi-Modal Foundation Model)包含了视觉、语言及语音三大模态,今日论坛专家学者齐聚共同讨论其对台湾、 AI 产业带来的挑战与机会。
专家学者齐聚一堂探讨多模态基础模型的 AI 2.0
国立台湾大学人工智慧技术暨全幅健康照护联合研究中心陈信希主任开场向观众概览大型语言模型的崛起,草期机器学习重视特徵选取,再到深度学习重视架构;语言模型:预训练-精炼架构,着重目标的选取;至於大型语言模型则是预训练-提示-预测,着重提示的选取,最大的进展是从特徵工程到提示工程。降低了人工智慧基础模型的开发障碍,就算不是 CS 背景者都能跨入,用 AI 来解决问题。
陈信希认为大型语言发展提供解决问题新的模式,降低开发门槛,基础模型提供系统开发便利环境,如何想出创新的应用对子将是关键。AI 越来越看得懂听得懂,除了近来备受讨论的大型语言模型(LLM),语音、电脑视觉、智慧云端、对话式人工智慧、多模态 AI 系统都是背後重要技术,值得大家持续关注。
华硕云端暨台智云总经理吴汉章提到 ChatGPT 引爆 AI 2.0 的现象,大型语言模型(LLM) 让大家再度拥抱人工智慧趋势,除了大型语言模型,值得关注的议题包含计算基因组学和高保真数位分身(digital twin),不论如何仍有许多待解的问题,比方算力就是其一。如今运算这些 AI 大型模型所需要 GPU 为算力核心的 AIHPC。
目前三大云技术上适合多租户下虚拟环境统一,然而当前 AI 2.0 则是单一租户就需要非常大算力的 HPC 架构,盘点目前全球前百大 HPC 共有 25 座为商业目的,大型石油公司拥有的7 座、俄罗斯拥有的 5 座、NVIDIA 自有的两座 ,美国有 4 座、三星电子一座、SKT 一座、欧洲两座、UAE —座、台湾一座是台湾衫二号,事实上,真正能让商用客户使用到的 AIHPC 算力稀缺。
台湾衫二号 AI 超级电脑就是 AI 2.0 技术加速器,并非 Hyperscalers 模式,可透过 Web 低成本取得资源,门槛较低,由台湾民间企业合作进行商业营运开发,更高的应用弹性。
上周联发科技、中研院、国教院携手发表全球首个繁体中文大型语言模型 BLOOM 比目前开源可用的最大繁体中文模型大 1,000 倍,所使用的训练资料也多 1,000 倍。吴汉章分享台智云目前进展提到,BLOOM 这样 GPT3 同级的大型语言模型也已在台湾衫二号实践。
目前 BLOOM 参数达 176B,无法在任一 GPU 上直接训练,需精准分割模型并有效率地分散式训练;176B 模型训练与推论已可在 TWCC 上运行。
吴汉章认为,AI 2.0 不会仰赖像是 Open AI 单一家公司,而是更丰富的多模态基础模型探索,许多 B2B 需要找到更多符合自己需求的解决方案,也期望和更多夥伴共同打造更具开放性的 AI 2.0,支援梗多具有开放性的语言模型、基於不同模型发展基础模型(Foundation Mode)并与客户共同协力跨领域的应用场景。
Photo Credit:Anny
非营利研究与科技公司鸿沟更大 学者呼吁:真正开放的 AI
AI 大神图灵奖得主 Yoshua Bengio 领导的 AI 实验室 MILA 教授 Dr. Irina Rish 发表演说,Towards Genuinely Open AI 分享机器学习、神经数据分析所启发的人工智慧,她提到 AI 不只能赢得围棋比赛的冠军、如今能行多工任务处理,在自动化系统,让更多经济体可以受益於此,然而在实际的应用仍有挑战。过去尤其在深度学习上受到特定领域的资料训练,系统性的泛化能力,像是自动驾驶车就会受到不同环境驾驶的影响,AI 医疗影像辨识上完成的训练系统只能用在某些特定疾病。
Irina 提到所有不同的任务的 AI 泛化(generalization)与分布外泛化(Out-Of-Distribution Generalization)、领域自适应 (Domain adaptation) 、元学习(Meta-learning)、迁移学习(Transfer Learning)、持续学习(Continual Learning) 相关,即便是环境中的数据发生了变化,在理想情况下,尽可能地更为耐用。
近期的人工智慧实现真正的泛化系统,具有革命性意义。从本质上来说,增加模型大小和训练的数据量,同时使用相对简单或通用的架构,与此同时在还能更便宜的成本取得资源,在演说中她以论文研究解析预训练模型机会与挑战。
Photo Credit:INSIDE Anny 摄
Irina 也站在学术界的角度呼吁,如今在各种的竞争对手,包含 Google 、微软、Meta 等陆续浮现下,在这波浪潮中,拥有最大电脑算力者将受益最大,然而目前算力都由大型科技公司所拥有,学术界与非营利研究的差距将会扩大。
有监於大规模运算资源将极大地促进全球开放 Al 研究的发展,因此 MILA 的目标是发展广泛的国际合作,建立越来越强大的基础模型,同时安全、强大和符合人类价值观,能作为不同领域 AI 应用的基础,避免只在大型科技公司累积先进的 AI 技术,推进开源的 AI,朝 Al 民主化迈进。
核稿编辑:Jocelyn