全球搜索教育: AI, 算法和我们应该所有想着?

机器人学习或解决问题

“算法是为谁具有一定的意图设计或委托他们的人有偏见. 我们应该 因此 一场关于软件系统与社会影响的目标的公开辩论。” - 拉尔夫·穆勒 - Eiselt

偏置算法是无处不在, 所以在机器学习和人工智能的发展的关键时刻, 为什么我们不谈论这个带来的社会问题?

在她的书, 大数据如何增加不平等和威胁到民主 - 数学杀伤性武器, 卡西·奥尼尔指出,“大数据处理编纂过去”,但他们没有“创造未来。”我们怎么觉得机器影响我们人类的机构? 谁保护生活质量时,算法负责? 奥尼尔认为,人情味是必不可少的“嵌入更好的值到我们的算法。”

拉尔夫·穆勒 - Eiselt是教育政策和管理方面的专家,负责贝塔斯曼基金会的政策挑战和机遇特别工作组在数字化世界. 在他最新的“算法伦理”项目 (他的合着者 数字教育革命; 英文片名 – 教育的数字化革命), 他需要在算法的决策和人工智能的后果,在社会和教育的密切关注. 他加入 全球搜索教育 说说AI, 算法和我们都应该思考.

使用平板电脑工程师手, 重自动化机器人臂机我

“它是由我们来决定AI在教育是否将成为加强社会公平的催化剂 - 或削弱它。” — 拉尔夫·穆勒 - Eiselt

拉尔夫, 我们如何确保算法总是设想,以实现社会和教育产生积极影响, 而不是危险或风险?

算法是为谁具有一定的意图设计或委托他们的人有偏见. 因此,我们应该一场关于软件系统与社会影响目标的公开辩论. 它是由我们作为一个社会决定在哪里这样的系统应使用,以确保它们被设计时考虑到正确的目的. 其次, 我们必须记住,即使算法设计与良好的愿望会产生不好的结果. 个人参与社会的更大的潜在影响, 更重要的是一种预防性的风险评估和 - 一旦自动化决策是使用 - 一个综合评价,以验证预期的结果. 在这个过程中涉及中立第三方可以显著帮助建立基于软件的决策信任.

我们如何评估他们是否办成什么意?

透明的问责是关键,当涉及到评估算法为基础的应用程序和工具. 这并不意味着,我们需要做的算法可公开访问的代码. 事实上, 这将根本不利于受影响最大的个人获得的算法明智的决策是如何取得被理解. 相反,, 我们需要像算法的目的不言自明的陈述,可以通过评估通过中立的专家来验证谁授予的相关信息和数据访问机制. 这些评价应以作为全盘地进行设计,以检查是否算法实际上是服务于预期目的,并透露自己的真实生活中的风险和机会.

机器人扮演形态分拣玩具. 人工智能和机器学习的概念3D插图

“虽然是面向能力的课外选择和职业选择算法知情的建议大量的机会, 针对薄弱客户的危险之前,我们可能不会关闭我们的眼睛, 标准化的歧视和大规模的劳动力市场排斥。” - 拉尔夫·穆勒 - Eiselt

您如何看待算法和人工智能来适应不断发展的教育体系?

数字时代提供了许多促进教育的附加价值. 他们中的许多本质上依赖于使用连接的数据 - 被它个性化学习, 克服通过游戏化动机障碍, 在机遇丛林提供方向, 或至少不, 匹配与劳动力市场需求个人能力. 在教育部门使用的算法和艾尚处于起步阶段, 用大量的试验和错误的被观察. 但是,技术能够并且将会相当肯定有助于发展在不久的将来,所有这些问题. 因为这可能会在相当长的一段规模影响教育, 政策制定者最好不要等到这些事情发生的事后反应, 但现在积极塑造调控对维持公共利益. 它是由我们来决定AI在教育是否将成为加强社会公平的催化剂 - 或削弱它.

我们怎样才能个性化的AI,以适应每个教室和孩子的需求?

个性化的学习,以便更好地发挥个人能力,是数字化学习的主要机会之一. 基于算法的应用程序和AI能民主化个性化的教育,成本相关的原因,以前只提供给人们一个有限数量的访问. 但在教育AI的承诺和危险之间的细线. 虽然是面向能力的课外选择和职业选择算法知情的建议大量的机会, 针对薄弱客户的危险之前,我们可能不会关闭我们的眼睛, 标准化的歧视和大规模的劳动力市场排斥.

由于AI是由人类制造, 是有风险的算法和人工智能将不能准确在教育环境中由于人为错误的工作? 怎么会失误AI影响学习经验?

算法是只作为谁设计他们的人一样好. 人为错误可以转化为在许多阶段的算法: 从收集并在算法编程选择数据到解释其输出. 例如, 如果一个算法使用历史数据, 这是在一定的方向施力,由于过去的歧视性图案, 该算法将这些模式学习,当它被大规模使用最有可能甚至加强这种歧视. 这种无意识的错误必须严格避免不断检查, 因为他们将扩大社会不平等在教育部门.

训练神经科学发展

“对于 政策制定者, 现在是时候了这一领域朝着更加社会公平积极主动地塑造. 而那些被卷入算法的实际设计和开发应该花时间来反映 大约 他们的社会责任和创造在这一领域的职业道德通用标准“ - 拉尔夫·穆勒 - Eiselt

如何能够将这些问题最小化?

如上文更详细地解释, 我们需要做的预防风险评估,并确保基于算法的应用程序的常数和综合评价,通过中立的第三方. 我们还应该引发更广泛的公众辩论和提高认识的使用, 机会,在教育算法风险. 对于政策制定者, 现在是时候了这一领域朝着更加社会公平积极主动地塑造. 而那些被卷入算法的实际设计和开发,应以反映他们的社会责任和创造在这一领域的职业道德通用标准时间.

做AI和算法需要在全球范围内重新调整为不同的教育体系? 它将如何重要的是整合文化差异成AI的配方?

什么在世界上大多数教育系统有一个共同点,就是他们的目的是加强和支持人民发展他们的个人能力和天赋, 简而言之: 创造机会平等. 然而, 接近和实现这一目标的途径是多方面的. 他们都有自己的长处和短处. 什么工作在一个地方未必在另一个社会环境中工作. 以相同的方式, 算法- 和基于人工智能的应用程序需要进行调整,以他们在所使用的特定社会文化背景.

(所有照片都是CMRubinWorld礼貌)

cmrubinworld_muller-Eiselt(300)

ç. M. 鲁宾和拉尔夫·穆勒 - Eiselt

和我一样,全球知名的思想领袖,包括迈克尔·巴伯爵士 (英国), 何. 迈克尔座 (美国), 何. 莱昂特司特因 (美国), 克莱克里斯坦森教授 (美国), 何. 琳达·达林 - 哈蒙德 (美国), 何. MadhavChavan (印度), 查尔斯·法德尔 (美国), 迈克尔·富兰教授 (加拿大), 霍华德·加德纳教授 (美国), 安迪·哈格里夫斯教授 (美国), 伊冯娜赫尔曼教授 (荷兰), 克里斯汀Helstad教授 (挪威), 让·亨德里克森 (美国), 玫瑰Hipkins教授 (新西兰), 科妮莉亚Hoogland教授 (加拿大), 这位杰夫·约翰逊 (加拿大), 太太. 尚塔尔考夫曼 (比利时), 何. EijaKauppinen (芬兰), 国务秘书TapioKosunen (芬兰), 多米尼克·拉方丹教授 (比利时), 休·劳德教授 (英国), 主肯麦克唐纳 (英国), 杰夫大师教授 (澳大利亚), 巴里McGaw教授 (澳大利亚), 希夫纳达尔 (印度), Ř教授. 纳塔拉詹 (印度), 何. 吴PAK (新加坡), 何. 丹尼斯教皇 (美国), 斯瑞达拉贾戈帕兰 (印度), 何. 黛安·拉维奇 (美国), 理查德·威尔逊·赖利 (美国), 肯·罗宾逊爵士 (英国), 帕西SAHLBERG教授 (芬兰), 押尾佐藤教授 (日本), 安德烈亚斯·施莱歇 (PISA, 经合组织), 何. 安东尼·塞尔顿 (英国), 何. 大卫·谢弗 (美国), 何. 基尔斯滕都沉浸式 (挪威), 总理斯蒂芬·SPAHN (美国), 伊夫Theze (LyceeFrancais美国), 查尔斯Ungerleider教授 (加拿大), 托尼·瓦格纳教授 (美国), 大卫·沃森爵士 (英国), 迪伦Wiliam教授 (英国), 何. 马克沃莫尔德 (英国), 西奥Wubbels教授 (荷兰), 迈克尔·杨教授 (英国), 和张民选教授 (中国) 因为他们探索所有国家今天面临的大画面的教育问题.

全球搜索教育社区页面

ç. M. 鲁宾是两个广为传诵的在线系列,她接受了笔者 2011 厄普顿·辛克莱奖, “全球搜索教育”和“如何将我们阅读?“她也是三本畅销书, 其中 真正的爱丽丝梦游仙境, 是的发行 CMRubinWorld 而且是干扰物基金会研究员.

按照ç. M. 鲁宾在Twitter: www.twitter.com/@cmrubinworld

作者: ç. M. 鲁宾

分享这个职位上