数据管理和人工智能指南

ChatGPT和类似的人工智能(AI)技术/程序已经跨入了生产力工具的最前沿. 学院认识到这些工具为员工和后台职能创造的机会, as well as the risks. 预计办公室将有许多创造性的机会利用人工智能来改善对学生的运营和服务. 本临时指南概述了为学院员工和业务职能适当使用和获取人工智能技术. 它不打算解决教学因素或学术诚信, 尽管其中一些内容可能对此类目的提供信息.

1. No Sensitive Data in Public Engines. ChatGPT和类似人工智能(AI)技术的用户必须避免集成, entering, 或者将任何非公开的机构数据整合到公共引擎中. 在这些服务中使用机构数据可能会导致未经授权向公众披露,并可能使用户和学院承担法律责任和其他后果.

Once data or information is shared, 它可能被其他人访问,并且无法控制或检索. 由于学院目前没有与开放模型保护敏感数据的合同, 我们不能将它们用于敏感数据.

随着时间的推移,我们希望学院能够获得用于非公开数据的人工智能能力. 如果您有紧迫的用例,请联系图书馆 & 讨论信息服务的未来机会.

2. 人工智能合同必须通过图书馆协调 & Information Services. 员工个人和单位不得签订技术协议, 没有IT安全审查和事先书面授权的图书馆和信息系统. Additionally, 在收购过程中,必须将博彩网址大全的安全条款和条件纳入合同. 这一政策适用于包括人工智能在内的所有技术. LIS管理的收购步骤使学院能够遵守网络安全法并优化我们的技术采购.

3. 人工智能的使用必须适当地解决道德和法律方面的问题. 人工智能的使用必须符合法律和监管要求(例如.e. 反歧视法,FERPA, GLBA),以及道德考虑. 人工智能引入了一些新的伦理考虑. 以下是一些关键的道德考量.

Ethical Consideration Description
Fairness and Bias 人工智能系统的设计和训练应该确保其决策过程中的公平性,避免偏见. 开发人员和提示作者需要意识到训练数据和算法中潜在的偏见, and take steps to mitigate them.
Transparency and Explainability 人工智能系统应该是透明的,它们的决策过程应该向用户解释. 缺乏透明度可能导致不信任,并引发对问责制的担忧.
Privacy 人工智能系统对个人数据的收集和使用应尊重隐私权,遵守相关规定. 对于有受影响个人的重大用途,应获得知情同意.

实现人工智能系统以满足这些道德和法律要求的一些方法包括:

  1. 确保人类判断是最终决策过程的一部分, 所以人工智能引擎是一个帮助工作人员的工具, not the decision-maker
  2. 进行彻底的测试,以尽量减少错误和意外后果
  3. 使用可解释的机器学习模型,为他们如何做出决策提供见解. Models such as decision trees, rule-based systems, 或者线性模型通常比复杂的黑箱模型(如深度神经网络)更透明. 能够引用来源的开放模型为研究和内容开发提供了更好的可追溯性.
  4. 建立独立的审计程序来评估公平性, bias, 以及模型及其反应的透明度. 审计过程的范围可以从简单的手动随机抽样到自动冗余AI审计模型
  5. 永远不要将个人身份信息放入公共AI引擎. 考虑利用匿名数据技术的机会.

When Can I Use a Public AI Engine? 以下是使用公共AI引擎(如ChatGPT)的一些示例, Bing ai, Dali image generator, etc.)如有疑问,请咨询您的主管或LIS经理. 为了使用这些工具,可能有机会匿名化您的提示.

Probably OK
  • To write a user procedure document
  • 提升公共网站的形象
  • 在匿名数据中寻找趋势或异常
  • 编辑一封不敏感的写给家长的信
  • 在假设的情况下给出赞成和反对的理由
Not OK
  • To analyze data containing student names
  • 起草一封给学生的信,宣布一些尚未公开的事情