Press "Enter" to skip to content

微软生成式AI入门课程03 —— 负责任地使用生成式AI

视频即将推出

人工智能,尤其是生成式人工智能,很容易引起人们的兴趣,但你需要考虑如何负责任地使用它。你需要考虑如何确保输出结果是公平、无害等方面的问题。本章旨在为你提供相关背景、考虑事项和如何采取积极措施改进你的人工智能应用的核心内容。

介绍

本课程将涵盖以下内容:

  • 构建生成式人工智能应用程序时为何应优先考虑负责任的人工智能。
  • 负责任人工智能的核心原则及其与生成式人工智能的关系。
  • 如何通过战略和工具将负责任人工智能原则付诸实践。

学习目标

完成本课程后,你将了解:

  • 在构建生成式人工智能应用程序时,负责任人工智能的重要性。
  • 在构建生成式人工智能应用程序时何时思考并应用负责任人工智能的核心原则。
  • 何种工具和策略可供你实践负责任人工智能的概念。

负责任人工智能原则

生成式人工智能的热度前所未有。这种热潮带来了许多新的开发者、关注度和资金投入。虽然对于任何希望用生成式人工智能构建产品和公司的人来说,这非常积极,但我们也必须负责任地推进。

在整个课程中,我们致力于构建我们的初创公司和我们的人工智能教育产品。我们将运用负责任人工智能的原则: 公正、包容性、可靠性/安全性、安全与隐私、透明度和问责制。通过这些原则,我们将探讨它们如何与我们在产品中使用生成式人工智能相关联。

为什么应该优先考虑负责任人工智能

在构建产品时,以用户为中心,考虑用户的最佳利益,将会带来最好的结果。

生成式人工智能的独特之处在于其能够为用户创建有帮助的答案、信息、指导和内容。这可以在不需要太多手动操作的情况下实现,从而产生令人印象深刻的结果。但是,如果没有适当的规划和策略,它也可能不幸地对用户、产品和整个社会产生一些有害结果。

让我们来看看其中一些(但不是全部)可能会产生有害结果的情况:

幻觉

“幻觉”是用来描述当语言模型生成的内容完全没有意义,或者根据其他信息来源我们知道是事实上是错误的。

举个例子,我们为我们的初创公司构建了一个功能,允许学生向模型提问历史问题。一个学生提问“泰坦尼克号的唯一幸存者是谁?”

模型生成了以下回答:

Prompt saying "Who was the sole survivor of the Titanic"

(来源: Flying bisons)

这个回答非常自信、详细。不幸的是,它是错误的。即使进行了最少量的研究,我们也会发现泰坦尼克号的幸存者不止一个。对于刚开始研究该主题的学生来说,这个回答可能足够具有说服力,不会被质疑并被视为事实。这可能导致人工智能系统不可靠,并对我们的初创公司声誉产生负面影响。

随着每一次语言模型的迭代,我们可以看到在减少幻觉方面的性能改进。即使有了这些改进,我们作为应用程序的构建者和用户仍然需要意识到这些局限性。

有害内容

我们在前一部分中已经讨论了当语言模型生成不正确或没有意义的回答时的风险。我们还需要意识到的另一个风险是模型生成有害内容。

有害内容可以定义为:

  • 提供自残或对特定群体造成伤害的指导或鼓励。
  • 充满仇恨或贬低的内容。
  • 引导策划任何类型的攻击或暴力行为。
  • 提供寻找非法内容或实施非法行为的指导。
  • 显示性暗示的内容。

对于我们的初创公司来说,我们希望确保拥有适当的工具和策略,以防止学生看到这种类型的内容。

缺乏公正

公正被定义为“确保人工智能系统没有偏见和歧视,对待每个人公平而平等”。在生成式人工智能领域,我们希望确保模型的输出不会强化被边缘化群体的狭隘世界观。

这些类型的输出不仅破坏了为用户构建积极的产品体验,而且对社会造成进一步的伤害。作为应用程序的构建者,在使用生成式人工智能构建解决方案时,我们应始终牢记广泛多样的用户群体。

如何负责任地使用生成式人工智能

现在,我们已经明确了负责任生成式人工智能的重要性,让我们看一下采取的四个步骤来负责任地构建我们的人工智能解决方案:

测量潜在危害

在软件测试中,我们测试用户在应用程序上的预期动作。同样,测试用户最有可能使用的一组多样的提示是衡量潜在危害的好方法。

由于我们的初创公司正在开发教育产品,因此准备一个与教育相关的提示列表是个好主意。这可以包括涵盖特定学科的内容、历史事实和关于学生生活的提示。

减轻潜在危害

现在是找到方法来预防或限制模型及其回答导致的潜在危害的时候了。我们可以从四个不同的层面来看这个问题:

  • 模型。选择适合特定用例的正确模型。像GPT-4这样更大更复杂的模型在应用于更小更具体的用例时可能会带来更大的有害内容风险。用您的训练数据进行微调也可以减少有害内容的风险。
  • 安全系统。安全系统是在为模型提供服务的平台上的一组工具和配置,帮助减轻危害。例如,Azure OpenAI服务中的内容过滤系统就是一个例子。系统还应检测越狱攻击和来自机器人的不需要的活动,如请求。
  • 元提示。元提示和基于特定行为和信息的整理是我们可以根据某些行为和信息来引导或限制模型的方法。这可以使用系统输入来定义模型的某些限制。此外,还可以提供与系统的范围或领域更相关的输出。

除此之外,还可以使用检索增强的生成(RAG)等技术,使模型仅从一系列可信源中获取信息。本课程的后面有一节关于构建搜索应用程序的课程。

  • 用户体验。最后一个层面是用户通过我们应用程序的界面与模型进行直接交互。通过这种方式,我们可以设计用户界面来限制用户发送给模型的输入类型以及向用户显示的文本或图像。在部署人工智能应用程序时,我们还必须透明地介绍我们的生成式人工智能应用程序可以做什么和不能做什么。

关于为人工智能应用程序设计用户体验,我们有一整节课程 为人工智能应用程序设计用户体验

  • 评估模型。与文本生成语言模型合作可能是具有挑战性的,因为我们并不总是对模型的训练数据有控制。不管怎样,我们都应该评估模型的性能和输出。衡量模型的准确性、相似性、基于真实情况的程度和输出的相关性仍然非常重要。这有助于为利益相关者和用户提供透明度和信任。

运营负责任的生成式人工智能解决方案

建立一个围绕你的人工智能应用程序的运营实践是最后一个阶段。这包括与我们初创公司的其他部门(如法务和安全)合作,确保我们遵守所有监管政策。在发布之前,我们还要制定交付计划、处理事故和回滚的计划,以防止对我们的用户产生任何伤害。

尽管开发负责任人工智能解决方案的工作可能看起来很多,但这确实是值得付出努力的工作。随着生成式人工智能领域的发展,越来越多的工具将帮助开发人员有效地将责任融入他们的工作流程。例如,Azure AI内容安全可以通过API请求帮助检测有害内容和图像。

知识检测

为确保对人工智能的负责任使用,你需要关注以下几个方面:

  1. 答案是否正确。
  2. 避免使用人工智能进行犯罪活动。
  3. 确保人工智能不受偏见和歧视的影响。

A: 2 和 3 是正确的。负责任的人工智能可以帮助你考虑如何减轻有害影响和偏见等问题。

🚀 挑战

详细了解 Azure AI内容安全,看看你可以为你的使用情况采纳什么。

做得好,继续学习

想了解更多有关如何负责任地构建生成式人工智能的知识吗? 前往持续学习页面以找到其他关于这个主题的优秀资源。

继续学习,在第4课中我们将学习 提示工程基础知识

本文由极客智坊网页翻译服务自动翻译完成:

微信扫描体验极客翻译

原文地址:https://microsoft.github.io/generative-ai-for-beginners/#/03-using-generative-ai-responsibly/README

发表回复