随着人工智能驱动的聊天机器人进入大学课程,为学生提供 24/7 支持的潜力可能会带来变革。但有一个问题:当我们通过上传文档来定制这些聊天机器人时,我们不仅仅增加了知识,还引入了偏见。无论有意还是无意,我们选择的文档都会影响聊天机器人的响应,从而可能影响学生参与课程主题的方式,并最终影响他们的思维方式。那么,我们如何确保我们提倡批判性思维,而不仅仅是使用人工智能(更具体地说是大型语言模型或法学硕士)来强化我们自己的观点?
聊天机器人助教(或导师)对于大学课程来说并不陌生 [1],但凭借低成本的 LLM 访问权限和用户友好的工具,教师现在可以更轻松地创建定制的课程聊天机器人。然而,用于管理任务的基于 LLM 的定制聊天机器人(它们引用普遍接受的“基本事实”,例如组织政策)与教育领域使用的聊天机器人之间存在一个关键区别,在教育中,不存在单一的“基本事实”。大多数学科的教师经常提出特定的观点或理论,即使存在多种观点和不断发展的辩论。您选择定制聊天机器人的材料可以强化您自己的观点,也可以引入反映更广泛学术辩论的多样性观点。
最近法学硕士的兴起使教师更容易创建定制的聊天机器人来增强他们的教学。现在,定制法学硕士非常简单,通常不需要编码,只需将文档(例如文章、案例研究、书籍)上传到 ChatGPT、Claude、Gemini 或 Copilot 等工具即可。这些文档为聊天机器人对话提供了上下文,允许聊天机器人的响应由补充材料决定,从而产生与原始的、未经修改的法学硕士不同的输出。
在存在“基本事实”文档(例如隐私政策)的组织环境中,定制的聊天机器人输出可以更加准确。然而,在教育领域,上传用于定制聊天机器人的文档不能被认为代表单一的“基本事实”。这会在聊天机器人的反应中引入新的偏见(无论是有意还是无意),从而影响学生的学习内容。这种区别要求为课程定制聊天机器人的教师具有高标准的道德责任。
拥有一名每周 7 天、每天 24 小时为您的学生提供帮助的导师或助教,有很大的潜力来补充您作为讲师已经在做的事情。现在还有许多选项可供教师轻松上传课程特定文档,以补充基于 LLM 的聊天机器人。从使用 OpenAI 的 GPT Assistant 进行构建,到使用 IBL 的 AI Mentor 和 Druid 的 Conversational AI 等服务,您现在可以整理一组文档,用于将课程特定内容添加到特定于课程的聊天机器人的知识库。
尽管定制基于法学硕士的聊天机器人的技术障碍已经降低,但在为课程创建聊天机器人时仍然需要考虑重要的开发和道德考虑。您选择的文件将影响(尽管并不完全决定)学生收到的答复。其他因素,例如法学硕士的基本模型、您提供的说明以及学生和聊天机器人之间正在进行的对话,也将发挥作用。然而,策划的内容可以极大地影响聊天机器人的输出,并且这种影响的价值将取决于您的教学目标。
应该教导学生“如何思考,而不是思考什么”[2, 3],这一信念是本次讨论的核心,尽管这一观点并未得到普遍认同。有些人可能有意识或无意识地倾向于相反的观点——优先考虑那些微妙地决定思考内容的内容,例如在选择课程阅读材料时。这些选择往往受到各种偏见的影响。在为基于法学硕士的聊天机器人策划文档时,了解可能影响选择过程的偏见至关重要。
教授批判性思维与强化特定观点之间的区别与在为课程聊天机器人策划内容时可能引入的偏见密切相关。无论是有意还是无意,这些偏见都会影响学生接收的信息以及他们如何参与课程材料。
当选择文档来定制基于法学硕士的聊天机器人时,很容易(有意或无意)引入偏见,从而影响学生与聊天机器人的反应和互动。这些偏见不仅会影响内容,还会影响学生参与和理解材料的方式。以下是策划内容时需要注意的一些常见偏见:
- 个人研究偏见:过分强调与教师的研究兴趣和著作相符的主题,而对他们专业之外的领域代表性不足。
- 时间偏见:偏爱较旧的、完善的理论和概念,而忽视最近的发展或前沿研究,反之亦然。
- 子学科偏见:一个领域内子学科的代表性不平衡,过分强调“核心”主题,而忽视了跨学科或新兴领域。
- 理论框架偏差:教师对某些理论或模型的偏好,以及替代或竞争框架的潜在代表性不足。
- 方法偏差:对特定研究和评估方法或途径的偏好。
- 文化偏见:主导文化观点的过度表达(例如,在政治自由主义大学中的政治自由主义观点)以及可能缺乏文化多样性的例子或应用。
- 道德立场偏见:反映了教师在有争议的话题上的道德立场以及道德辩论可能缺乏平衡的表述。
- 期刊/出版商偏见:从有限数量的出版物/出版商中选择出版物可能会使聊天机器人的输出产生偏见,从而促使学生选择某些出版物和/或出版商。
- 技术偏见:偏爱与教师或机构使用或教授的特定技术(例如某些编程语言、软件工具)或计算工具相一致的研究或研究,而忽视其他技术。
- 机构偏见:偏爱来自知名机构的研究,可能忽视不太知名或新兴研究中心的高质量工作。
- 学科保守主义偏见:过分强调“公认的”或“安全的”科学范式,而未能包括挑战现状的新兴或有争议的研究。
- 实验偏差:强调具有积极、显着结果的研究,而忽视无效或消极的发现。
- 开放获取偏见:开放获取资源的代表性过高,可能无法提供全部可用知识。
此列表并不详尽,并且可能存在特定于您的学科的其他偏见,值得关注。然而,这些示例应该为理解为课程聊天机器人策划内容所涉及的复杂性提供一个坚实的起点。重要的是要记住,您添加的任何数据都会改变(而不是消除)聊天机器人响应中的偏见,因为很少有学科提供明确的“基本事实”。
本博客将重点关注在使用课程聊天机器人时对学生产生重大影响的人类决策(您的决策),特别是可能引入的有意和无意的偏见。这里有十个入门技巧,尽管其他道德考虑(例如,法律考虑、学生机构)也值得关注。
- 注意偏差:像 ChatGPT 或 Gemini 这样的基础模型已经带有来自它们所训练的大量数据集的固有偏差。当您使用自己的文档自定义这些模型时,您会有意无意地引入额外的偏见。例如,选择强调一种理论而不是另一种理论的材料(例如,“我希望学生学习理论 X 而不是理论 Y”)是一种故意偏见。然而,数据中的微妙模式也可能会出现意想不到的偏见,例如偏爱某些期刊或观点而不是其他期刊或观点。了解这些层面的偏见对于确保您的聊天机器人提供平衡的内容至关重要。
- 促进观点的多样性:在选择补充法学硕士的文件时,有意选择多样化且信誉良好的来源。包括代表广泛观点的材料,例如来自国际期刊或具有不同意识形态观点(例如左倾、右倾、中间派)的来源的阅读材料。建立明确的指导方针,优先考虑课程材料的多样性(请参阅上面的潜在偏见列表)。即使您个人不同意某些观点,将它们包含在聊天机器人的内容中对于培养批判性思维技能和鼓励学生探索一系列观点至关重要。
- 鼓励探索:指示聊天机器人提供相关的多个观点的响应。例如,聊天机器人可以被指示提供一系列科学、经济和政治观点,而不是对“气候变化的影响是什么?”这样的问题给出单一答案。您还可以考虑使用多个聊天机器人(即多代理系统)来进一步使所呈现的观点多样化(例如,STORM)。
- 框架响应:指示聊天机器人以突出不同观点的方式框架其答案。例如,它可以回应:“对这个问题有不同的看法。根据 X 的说法,……但 Y 提出了一种不同的方法,认为……”
- 记录选择过程:清晰记录您为聊天机器人选择特定材料的方式和原因。这种透明度不仅允许自我反思,还为可能询问所选内容背后原理的学生或同事提供参考。
- 与学生共享精选列表:为学生提供精选文档和资源列表的访问权限,鼓励他们在希望更深入地了解特定观点时探索原始材料。为了进一步支持他们的批判性思维,请解释为什么选择某些文档,如果有帮助,请记下已考虑但未包含的任何材料。
- 收集学生反馈:建立学生在感觉观点缺失或代表性不足时进行报告的方法。定期查看此反馈,以确保聊天机器人保持平衡和多样化的内容。
- 计划不断更新:每学期审查精选材料,以确保它们保持最新状态并代表不同的观点。这可以防止强化过时或不相关的观点。定期纳入新的、经过同行评审的研究或观点,以保持聊天机器人的响应动态并与该领域正在进行的辩论保持一致。
- 考虑机构和道德责任:确保聊天机器人符合学术自由和偏见的机构政策。教师应注意法律义务,特别是在可能要求观点中立的公立机构中。同样,了解您在促进批判性思维和多元化观点方面的道德责任,确保聊天机器人不会成为在复杂问题上传播单一观点(即使这是您的观点)的工具。
- 比较输出:系统地比较原始 LLM 的响应与补充聊天机器人的响应。评估补充后的聊天机器人是否与整理的数据更加一致,以及是否出现了任何新的偏见或观点转变(无论是明显的还是微妙的,有意的还是无意的),特别是在回答复杂或模糊的问题时。
此列表并不详尽;它没有解决学生数据隐私等问题,也没有解决确保法学硕士优先考虑策划文档中特定内容的技术挑战。同样重要的是要记住,法学硕士不会像人类那样“阅读”或“学习”内容。相反,它将材料分成块(通常是几百个标记/单词),并使用余弦相似度等技术来找到与学生问题的最佳匹配。这些匹配的块以及任何提供的指令和对话历史记录通过影响聊天机器人生成的下一个单词来塑造聊天机器人的响应。
如果聊天机器人只获得具有单一视角的补充文档,那么这种偏见将不可避免地影响其反应,即使它不是立即显而易见的。这些附加数据对输出的影响程度很难衡量,但您提供的内容的数量和类型将会产生影响。例如,如果大多数策划的文档都是实证研究,那么聊天机器人在回答学生问题时更有可能以微妙但重要的方式反映这种实证偏见。如果与特定观点保持一致是您课程目标的一部分,则应使其明确且透明。
策展中的偏见可能会导致学生毫无疑问地接受某些观点,从而限制他们的批判性思维。这就是为什么不仅要包含多样化的资源,而且要清楚为什么选择特定观点的原因。
作为教育工作者,我们对学生负有道德责任。通过将批判性思维外包给法学硕士(例如,依靠 ChatGPT 撰写论文),学生特别容易失去自己的代理权。随着法学硕士越来越善于模仿高水平的智力,社会和经济压力进一步助长了这种趋势。
在这种情况下,用于定制人工智能驱动的聊天机器人的材料的透明度是最低义务。为了进一步履行我们的道德责任,我们还应该解释为什么包含特定文件而不是其他文件。即使某些文件反映了您所认为的“基本事实”(例如,关于气候变化或动物权利),也必须提出替代观点并让学生具备批判性思维技能来评估聊天机器人的输出。如果不这样做就会削弱他们的机构。
最终,定制聊天机器人以供课程使用是一种强大的教育工具,但它需要仔细考虑我们引入的偏见。通过提出不同的观点、保持选择的透明性以及不断完善我们的聊天机器人内容,我们可以培养批判性思维并帮助学生更充分地参与材料。
版权声明
本文为本站原创内容,转载需注明文章来源(https://www.eiefun.com),另:文中部分素材可能会引用自其他平台,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除