全球搜索教育: AI, 算法和我們應該所有想著?

機器人學習或解決問題

“算法是為誰具有一定的意圖設計或委託他們的人有偏見. 我們應該 因此 一場關於軟件系統與社會影響的目標的公開辯論。“ - 拉爾夫·穆勒 - Eiselt

偏置算法是無處不在, 所以在機器學習和人工智能的發展的關鍵時刻, 為什麼我們不談論這個帶來的社會問題?

在她的書, 大數據如何增加不平等和威脅到民主 - 數學殺傷性武器, 卡西·奧尼爾指出,“大數據處理編纂過去”,但他們沒有“創造未來。”我們怎麼覺得機器影響我們人類的機構? 誰保護生活質量時,算法負責? 奧尼爾認為,人情味是必不可少的“嵌入更好的值到我們的算法。”

拉爾夫·穆勒 - Eiselt是教育政策和管理方面的專家,負責貝塔斯曼基金會的政策挑戰和機遇特別工作組在數字化世界. 在他最新的“算法倫理”項目 (他的合著者 數字教育革命; 英文片名 – 教育的數字化革命), 他需要在算法的決策和人工智能的後果,在社會和教育的密切關注. 他加入 全球搜索教育 說說AI, 算法和我們都應該思考.

使用平板電腦工程師手, 重自動化機器人臂機我

“它是由我們來決定AI在教育是否將成為加強社會公平的催化劑 - 或削弱它。” — 拉爾夫·穆勒 - Eiselt

拉爾夫, 我們如何確保算法總是設想,以實現社會和教育產生積極影響, 而不是危險或風險?

算法是為誰具有一定的意圖設計或委託他們的人有偏見. 因此,我們應該一場關於軟件系統與社會影響目標的公開辯論. 它是由我們作為一個社會決定在哪裡這樣的系統應使用,以確保它們被設計時考慮到正確的目的. 其次, 我們必須記住,即使算法設計與良好的願望會產生不好的結果. 個人參與社會的更大的潛在影響, 更重要的是一種預防性的風險評估和 - 一旦自動化決策是使用 - 一個綜合評價,以驗證預期的結果. 在這個過程中涉及中立第三方可以顯著幫助建立基於軟件的決策信任.

我們如何評估他們是否辦成什麼意?

透明的問責是關鍵,當涉及到評估算法為基礎的應用程序和工具. 這並不意味著,我們需要做的算法可公開訪問的代碼. 事實上, 這將根本不利於受影響最大的個人獲得的算法明智的決策是如何取得被理解. 代替, 我們需要像算法的目的不言自明的陳述,可以通過評估通過中立的專家來驗證誰授予的相關信息和數據訪問機制. 這些評價應以作為全盤地進行設計,以檢查是否算法實際上是服務於預期目的,並透露自己的真實生活中的風險和機會.

機器人扮演形態分揀玩具. 人工智能和機器學習的概念3D插圖

“雖然是面向能力的課外選擇和職業選擇算法知情的建議大量的機會, 針對薄弱客戶的危險之前,我們可能不會關閉我們的眼睛, 標準化的歧視和大規模的勞動力市場排斥。“ - 拉爾夫·穆勒 - Eiselt

您如何看待算法和人工智能來適應不斷發展的教育體系?

數字時代提供了許多促進教育的附加價值. 他們中的許多本質上依賴於使用連接的數據 - 被它個性化學習, 克服通過遊戲化動機障礙, 在機遇叢林提供方向, 或至少不, 匹配與勞動力市場需求個人能力. 在教育部門使用的算法和艾尚處於起步階段, 用大量的試驗和錯誤的被觀察. 但是,技術能夠並且將會相當肯定有助於發展在不久的將來,所有這些問題. 因為這可能會在相當長的一段規模影響教育, 政策制定者最好不要等到這些事情發生的事後反應, 但現在積極塑造調控對維持公共利益. 它是由我們來決定AI在教育是否將成為加強社會公平的催化劑 - 或削弱它.

我們怎樣才能個性化的AI,以適應每個教室和孩子的需求?

個性化的學習,以便更好地發揮個人能力,是數字化學習的主要機會之一. 基於算法的應用程序和AI能民主化個性化的教育,成本相關的原因,以前只提供給人們一個有限數量的訪問. 但在教育AI的承諾和危險之間的細線. 雖然是面向能力的課外選擇和職業選擇算法知情的建議大量的機會, 針對薄弱客戶的危險之前,我們可能不會關閉我們的眼睛, 標準化的歧視和大規模的勞動力市場排斥.

由於AI是由人類製造, 是有風險的算法和人工智能將不能準確在教育環境中由於人為錯誤的工作? 怎麼會失誤AI影響學習經驗?

算法是只作為誰設計他們的人一樣好. 人為錯誤可以轉化為在許多階段的算法: 從收集並在算法編程選擇數據到解釋其輸出. 例如, 如果一個算法使用歷史數據, 這是在一定的方向施力,由於過去的歧視性圖案, 該算法將這些模式學習,當它被大規模使用最有可能甚至加強這種歧視. 這種無意識的錯誤必須嚴格避免不斷檢查, 因為他們將擴大社會不平等在教育部門.

訓練神經科學發展

“對於 政策制定者, 現在是時候了這一領域朝著更加社會公平積極主動地塑造. 而那些被捲入算法的實際設計和開發應該花時間來反映 大約 他們的社會責任和創造在這一領域的職業道德通用標準“ - 拉爾夫·穆勒 - Eiselt

如何能夠將這些問題最小化?

如上文更詳細地解釋, 我們需要做的預防風險評估,並確保基於算法的應用程序的常數和綜合評價,通過中立的第三方. 我們還應該引發更廣泛的公眾辯論和提高認識的使用, 機會,在教育算法風險. 對於政策制定者, 現在是時候了這一領域朝著更加社會公平積極主動地塑造. 而那些被捲入算法的實際設計和開發,應以反映他們的社會責任和創造在這一領域的職業道德通用標準時間.

做AI和算法需要在全球範圍內重新調整為不同的教育體系? 它將如何重要的是整合文化差異成AI的配方?

什麼在世界上大多數教育系統有一個共同點,就是他們的目的是加強和支持人民發展他們的個人能力和天賦, 簡而言之: 創造機會平等. 然而, 接近和實現這一目標的途徑是多方面的. 他們都有自己的長處和短處. 什麼工作在一個地方未必在另一個社會環境中工作. 以相同的方式, 算法- 和基於人工智能的應用程序需要進行調整,以他們在所使用的特定社會文化背景.

(所有照片都是CMRubinWorld禮貌)

cmrubinworld_muller-Eiselt(300)

ç. M. 魯賓和拉爾夫·穆勒 - Eiselt

和我一樣,全球知名的思想領袖,包括邁克爾·巴伯爵士 (英國), 博士. 邁克爾座 (美國), 博士. 萊昂特司特因 (美國), 克萊克里斯坦森教授 (美國), 博士. 琳達·達林 - 哈蒙德 (美國), 博士. MadhavChavan (印度), 查爾斯·法德勒 (美國), 邁克爾·富蘭教授 (加拿大), 霍華德·加德納教授 (美國), 安迪·哈格里夫斯教授 (美國), 伊馮娜赫爾曼教授 (荷蘭), 克里斯汀Helstad教授 (挪威), 讓·亨德里克森 (美國), 玫瑰Hipkins教授 (新西蘭), 科妮莉亞Hoogland教授 (加拿大), 這位傑夫·約翰遜 (加拿大), 太太. 尚塔爾考夫曼 (比利時), 博士. EijaKauppinen (芬蘭), 國務秘書TapioKosunen (芬蘭), 多米尼克·拉方丹教授 (比利時), 休·勞德教授 (英國), 主肯麥克唐納 (英國), 傑夫大師教授 (澳大利亞), 巴里McGaw教授 (澳大利亞), 希夫納達爾 (印度), Ř教授. 納塔拉詹 (印度), 博士. 吳PAK (新加坡), 博士. 丹尼斯教皇 (美國), 斯瑞達拉賈戈帕蘭 (印度), 博士. 黛安·拉維奇 (美國), 理查德·威爾遜·賴利 (美國), 肯·羅賓遜爵士 (英國), 帕西SAHLBERG教授 (芬蘭), 押尾佐藤教授 (日本), 安德烈亞斯·施萊歇 (PISA, 經合組織), 博士. 安東尼·塞爾頓 (英國), 博士. 大衛·謝弗 (美國), 博士. 基爾斯滕都沉浸式 (挪威), 總理斯蒂芬·SPAHN (美國), 伊夫Theze (LyceeFrancais美國), 查爾斯Ungerleider教授 (加拿大), 托尼·瓦格納教授 (美國), 大衛·沃森爵士 (英國), 迪倫Wiliam教授 (英國), 博士. 馬克沃莫爾德 (英國), 西奧Wubbels教授 (荷蘭), 邁克爾·楊教授 (英國), 和張民選教授 (中國) 因為他們探索所有國家今天面臨的大畫面的教育問題.

全球搜索教育社區頁面

ç. M. 魯賓是兩個廣為傳誦的在線系列,她接受了筆者 2011 厄普頓·辛克萊獎, “全球搜索教育”和“如何將我們閱讀?“她也是三本暢銷書, 其中 真正的愛麗絲夢遊仙境, 是的發行 CMRubinWorld 而且是干擾物基金會研究員.

按照ç. M. 魯賓在Twitter: www.twitter.com/@cmrubinworld

作者: ç. M. 魯賓

分享到:閱讀