老师和学生在课堂上为人工智能而战

AI伦理与社会10个月前发布 yundic
473 0 0

随着教育工作者们与人工智能在课堂上的兴起作斗争,许多机构都在争先恐后地为他们的课程“ChatGPT证明”。

人工智能聊天机器人,尤其是ChatGPT,正在迅速改变教育格局,模糊人工智能生成和真实工作之间的界限。

福曼大学哲学教授达伦·希克揭露了他的经历 在2022年底,人工智能生成的工作,他说,“学术界没有看到这一点。所以我们有点被它蒙蔽了。”

他将人工智能生成的工作描述为“一种干净的风格”。但它是可辨认的。我会说它写得就像一个非常聪明的12年级学生。

加拿大Conestoga学院的写作教授Timothy Main表示,他们正处于“全面危机模式”,数十起人工智能抄袭案例。

这引发了一场激烈的辩论 是否以及如何阻止这一切或者学术界应该简单地接受人工智能在社会中日益上升的作用,并教学生如何有效地使用它?

许多人担心人工智能在教育中的作用会侵蚀批判性思维,导致社会甚至依赖人工智能来获得最基本的知识和决策。

随着人工智能成为“唯一的真理来源”,我们真的能相信它吗?关于偏向?当它说谎和幻觉时呢?

处理这样的复杂性需要我们批判性地思考,如果我们不务实和意识,技术就会威胁到我们的能力。

教育工作者提出切实可行的解决方案

教育工作者正在探索维护学术诚信的方法,但几乎没有达成共识。

  • 纸质考试正在卷土重来,但在IT时代,这似乎是一个过时的解决方案。
  • 编辑历史和草稿可能会被审计,以证明学生的原创作品。
  • 考试题目正在被修改,变得不那么通用,这使得聊天机器人更难提供准确的答案。

科罗拉多大学计算机科学专业的Ronan Takizawa表示,虽然重新引入“蓝皮书”(传统考试手册)感觉倒退,但它确保了学生掌握必要的概念。

当教育工作者和他们的机构致力于解决方案时,学生们也不会一帆风顺。

错误的指控

检测人工智能生成的内容非常复杂。

人工智能检测器对于由GPT—3生成的文本是足够的,但现在我们已经转移到了GPT—3.5和GPT—4,它们的有用性已经大大下降。

这些检测器测量复杂性和突发性,它们共同预测一串单词被人工智能生成的可能性。

有证据表明他们患有一种高假阳性率,尤其是当接触到非英语母语人士写的文本时,因为他们可能更有可能写出费解程度较低的文本。

人工智能生成文本的激增也导致了错误的指控和角色互换,学生们正在重写部分真实作品,以避免人工智能检测器的误报。

一位德克萨斯农工学院的教授错误地指控 整个班级的学生都在使用ChatGPT作为他们的期末作业,后来才承认他错了——这是一个尴尬的局面后,该故事被华盛顿邮报和内幕等报纸报道。

科罗拉多学院计算机科学专业的Ronan Takizawa强调,许多学生不确定何时使用人工智能被视为作弊。

例如,在一个具有讽刺意味的事件转折中,亚利桑那州立大学的Nathan LeVang开始在他的真实任务中使用人工智能检测器,以确保他的工作不会被错误地标记为人工智能生成。

在他的人工写作论文被认为是“人工智能生成”后,他别无选择,只能重写章节。一项研究发现,一些学生的作品在使用人工智能写作时更有可能被贴上“人工写作”的标签。

人工智能探测器遭到抨击

这些问题由于人工智能检测器的性能不同而进一步复杂化,有些检测器在处理非母语英语书面文本时会产生98%的假阳性率。

其中一种名为Originality.ai的检测器因其不可接受的假阳性率而受到广泛批评。

有人对该工具的评论说,“绝对是假的,在那里欺骗你的财务。我在2014年做了一份工作,仍然得到了99%的人工智能抄袭。我倾向于认为,我们使用相同的字母表和单词与人工智能以及语法结构,所以人类和人工智能的内容之间只有一条细线。但这种原创的东西,纯粹是骗局和垃圾!”

另一个人说:“这是一个可怕的服务。它将原始和完全重写的内容标记为AI。它是不准确的,因为它给出的假阳性。只是浪费时间和金钱。它基本上用正确的语法和专业语言标记任何东西。”

人工智能探测器对他们的服务收费,如果他们不尝试做他们设计要做的事情—标记人工智能,他们就不值得为此付费。

关于人工智能在教育中的作用的斗争可能会变得激烈,特别是如果它导致学生不公正的话。

© 版权声明

相关文章

暂无评论

暂无评论...