天堂色网-天堂色综合-天堂社区在线观看-天堂社区在线视频-天天操网-天天操网站

 
當前位置: 首頁 » 行業資訊 » 機器人»年度研究報告:為AI領域提供的十條建議
   

年度研究報告:為AI領域提供的十條建議

 46.1K
     [點擊復制]
放大字體  縮小字體 發布日期:2017-11-10   瀏覽次數:848
核心提示:  AI Now 在其舉行的 AI 專家年度研究會約請了一百多位相干范疇的研討人員,會議評論辯論了 AI 對社會經濟的影響,在會上,AI Now 宣布了第二份 AI 年度研討申報。  固然"對 AI 抱有很高的希冀,但我們也要留意

  AI Now 在其舉行的 AI 專家年度研究會約請了一百多位相干范疇的研討人員,會議評論辯論了 AI 對社會經濟的影響,在會上,AI Now 宣布了第二份 AI 年度研討申報。

  固然"對 AI 抱有很高的希冀,但我們也要留意到,疾速推動將 AI 體系整合到高風險范疇正面對著偉大的挑釁。就拿刑事司法范疇來說,Propublica 團隊及多邏輯學者發明,法庭和法律部分用于猜測刑事罪犯再次犯法的算法,能夠對非裔美國人存有相當明顯的成見。而在醫療保健范疇中,匹茨堡年夜學醫學中間的研討發明,一種用于醫治肺炎的 AI 體系缺乏了一項對嚴重并發癥的風險評價。教導范疇中,德克薩斯州的教員評價算法存在嚴重缺點,教員們是以告狀了他們地點的學區并取得勝利。

  上述這些例子只是冰山一角,沒有提到的、還沒有為人所知的例子還有許多。帶來的一個挑釁是,AI 行業今朝缺乏尺度化的測試形式和審核辦法,沒法完整防止算法誤差來保證它們的平安性。但是,晚期的 AI 體系正被引入多個范疇,如醫療、金融、司法、教導和任務場合。這些體系愈來愈滲透人們的平常生涯中,用于猜測人們的音樂喜好、生病幾率、合適的任務和假貸金額等等。

  羅列的這些成績并不是蓄意濫用 AI 技巧而至,而是由于在 AI 技巧的應用進程中,沒有效于確保平安性或許公正性的相干流程及尺度,更沒有深刻思慮它們帶來的社會效應。盡人皆知,當新藥上市前,一定經由嚴厲的測試,并連續檢測中歷久的后果。在這類范疇要慎之又慎,由于一旦失足,將會給人們形成嚴重損害。關于高風險范疇的 AI 體系亦如斯。

  AI Now 在這份申報中,為 AI 行業的研討人員和決議計劃者供給了十項建議。須要留意的是,這十項建議并不是處理方法,而是進一步任務的終點。雖然 AI 產物正在敏捷成長,但對算法成見和公平的研討尚處于晚期階段,假如想要確保 AI 體系可以或許被擔任任地安排與治理,還有許多的工作須要去做。AI Now 表現,他們將努力于進一步研討,并停止普遍的社辨別享。


  十項建議


  建議一

  刑事司法、醫療保健、福利和教導等高風險范疇內的焦點公共機構不該再應用“黑盒子”的 AI 技巧和算法體系,包含未經審查和驗證的情形下應用預練習模子,采取第三方供給商受權的 AI 體系及外部創立的算法。

  公共機構應用這類體系會惹起"對這類法定訴訟法式的嚴重任憂。這些體系至多要經由公共審計、測試和審查的流程,并遵照響應的問責制。

  這帶來了一個嚴重改變:這條建議反應了 AI 及相干體系曾經對一些嚴重決議計劃發生了影響。在曩昔一年,亦有很多可這一點作證的研討申報。人們也執政向這個目的進步:從特克薩斯州教員評價訴訟案到 10 月份紐約市議會一項關于保證算法決議計劃體系的通明度和測試的法案。

年度研究報告:為AI領域提供的十條建議

  James Vacca,來自紐約市布隆克斯區的市議員,2015 年提出地下市政決議計劃算法的提案。

  建議二

  在宣布 AI 體系之前,企業應當停止嚴厲的預宣布測試,以確保不會因為練習數據、算法或其他體系設計的緣由,招致體系涌現任何毛病及誤差的產生。

  因為 AI 范疇的成長一日千里,是以停止測試的辦法、假定和測試成果,都應當地下通明、有明白版本,有助于順應更新進級及新的發明。

  AI Now 以為,開辟體系并從中獲利的公司應承當響應的測試及保證環節的義務,包含預宣布版的測試。AI 范疇離尺度化辦法還有很長的路要走,這也是為何 AI Now 建議這些辦法和假定須要地下審查和評論辯論的緣由。假如假以光陰,AI 范疇制訂出了硬朗性測試尺度,那末這類開放性相當主要。即便采取了尺度化辦法,試驗室測試也未必能碰到一切的毛病和盲點,是以也就有了第三項建議。

  建議三

  在宣布 AI 體系后,公司應持續監控其在分歧情況和社區中的應用情形。

  監視的辦法和成果應經由過程地下通明、學術嚴謹的進程來界定,并向"擔任。特殊是在高風險決議計劃情況中,應優先斟酌傳統邊沿化社區的不雅點和經歷。

  確保 AI 和算法體系的平安性長短常龐雜的成績,在給定體系的性命周期中須要堅持連續的進程,而非做完就忘的短時間磨練。為了確保 AI 體系不會由于文明假定和范疇產生轉變時引入毛病和誤差,是以須要對靜態用例和情況停止監控。異樣值得留意的是,很多 AI 模子和體系有通用性,其產物能夠會采取即插即用的附加功效,如情緒檢測或許臉部辨認等。這意味著供給通用 AI 模子的公司也可斟酌選擇曾經同意應用的功效,這些功效曾經斟酌過潛伏的缺點和風險等身分。

  建議四

  讓 AI 體系運用于任務場合治理和監測方面(包含雇用和人力資本環節),還須要停止更多的研討并制訂響應的政策。

  這項研討將重點彌補現有主動化替換工人的研討,要特殊留意對休息者權力和做法的潛伏影響,特別是要留意把持的潛伏行動和在雇用和提升進程中有意強化的成見。

年度研究報告:為AI領域提供的十條建議

  HireVue 成立于 2004 年,總部位于美國猶他州,是收集雇用的前驅之一,并一向努力于網上視頻面試。但它不只僅是應用收集攝像頭贊助企業面試應聘者,HireVue 還可以供給雇用治理處理計劃,贊助企業處置求職請求,并制訂決議計劃,而應聘者只需經由過程手機或電腦錄制視頻。

  關于 AI 和休息力的爭辯平日會合中在自愿流浪掉所的工人身上,這是一個異常嚴重的成績。然則,AI Now 也以為懂得 AI 和算法體系在全部任務場合中應用的情形,也一致主要,包含行動助推(AI 前哨注:行動經濟學中的助推實際,經由過程解析人的認知行動,設計更人道化、有用的選擇情況,影響人們的行動,贊助人們更好的做決議計劃。該實際由 Thaler 提出,是以取得 2017 年諾貝爾經濟學獎。)、到檢測環節,再到績效評價的一切進程。例如,一家名為 HireVue 的公司比來安排了一個基于 AI 的視頻面試辦事,用于剖析應聘者的講話、肢體說話和腔調,肯定應聘者能否相符一家給定公司的“最好員工”的尺度,因為這些體系能夠會削減多樣性并穩固現有的成見,是以人們須要下更多的工夫去充足懂得 AI 若何融入治理、雇用、調劑和平常任務場合的理論中。

年度研究報告:為AI領域提供的十條建議

  行動經濟學家 Richard Thaler 提出了助推實際,是以取得了 2017 年諾貝爾經濟學獎。

  建議五

  制訂尺度,跟蹤體系全部性命周期的來源、開辟進程及練習數據集的應用情形。

  為了更好地懂得和監視誤差和代表性誤差(representational skews)的成績,這條建議長短常有需要的。除卻更好地記載練習數據集的創立和保護進程外,AI 誤差范疇的社會迷信家和丈量研討人員還應當持續磨練現有的練習數據集,并盡力懂得能夠已存在現實任務中的潛伏盲區和誤差。

  AI 依附年夜范圍數據來發明形式并作出猜測。這些數據反應了人類汗青,但也弗成防止地反應了練習數據集的成見和偏見。機械進修技巧關于提取統計形式很拿手,但常常在歸納綜合罕見案例的進程中疏忽了分歧的異常值,這就是為何不依據數據外面價值停止誤差研討的主要緣由。這類研討要從懂得 AI 體系的數據從哪里開端,并尋蹤這些數據在體系中若何應用,還要跟著時光推移來驗證給定的數據集。懂得這一點,人們方能更好懂得數據中反響的毛病與誤差,從而開辟出能在數據的開辟和收集中辨認這類情形并加重其毛病的辦法。

  建議六

  超出狹窄的技巧界限,跨學科成長 AI 誤差研討懈弛解戰略的研討。

  誤差成績由來已久,是一個構造性的成績,處理這個成績的需要門路之一就是深度的跨學科研討。研討人員試圖找出可以或許依然如故的完全處理的辦法,卻不知這嚴重低估了這個成績在社會層面中的龐雜性。須知在教導、醫療保健、刑事司法等范疇中,誤差成績戰爭等活動的遺產都有本身的汗青和理論。不聯合響應的范疇專業常識,就不克不及完全處理誤差成績。要處理誤差成績就須要跨學科的協作,并尊敬分歧學科的紀律。

  比來,AI 和算法誤差范疇的任務有喜人的跡象,但 AI Now 提示人們不要向壁虛擬,不然,極可能會涌現體系在不曉得若何優化下卻被“優化”的風險。盤算機迷信家可以經由過程與司法、醫學、社會學、人類學和流傳學等范疇的專家協作,在 AI 數據構成及高低文集成之前,更好地輿解數據地城的構造性不屈等的成績。

  建議七

  亟需 AI 體系落地運用的審查尺度與標準。

  制訂這些尺度與標準須要聯合各類學科及同盟的不雅點,制訂進程要以地下、嚴謹的學術立場停止,并按期審查和修訂。

  今朝還沒有肯定的辦法可以或許權衡評價 AI 體系在其運用的社會范疇中所發生的影響。鑒于今朝尚處晚期的 AI 體系曾經給一些高風險的社會范疇形成了影響,這是一個必需看重的成績,燃眉之急是制訂 AI 范疇的尺度和辦法。

  建議八

  AI 范疇的公司、年夜學、會議及其他好處相干者應頒布介入其任務的女性、多數族裔和其他邊沿群體的人數。

  如今許多人熟悉到這一成績:今朝 AI 范疇研討人員缺少多樣性,但該成績的嚴重性缺少細粒度數據的論證。為了樹立真正包涵的任務場合,須要對科技行業的任務文明停止更深條理的評價,這就須要數據的支持,而不是僅僅多雇傭女性和多數族裔就完事。

  發明 AI 體系的人自己持有的假定和不雅點必將會影響到 AI 體系。AI 的開辟人員多為男性白人,有著類似的教導配景。今朝已有證據注解這類情形會形成成績,如語音助手“聽不懂”女性聲響、AI 助手沒法供給有關婦女安康的信息等。文明的多樣性研討在普通科技范疇有必定的停頓,但在 AI 范疇的結果卻寥若晨星。假如 AI 要向平安、公正、可以或許普遍運用的偏向成長,人們就不克不及只存眷多樣性和包涵性,還要確保 AI 公司的文明是迎接文明女性、多數族裔和其他邊沿群體的。

年度研究報告:為AI領域提供的十條建議

  建議九

  AI 行業應聘任盤算機迷信與工程之外的學科專家,并確保他們具有決議計劃權。

  跟著 AI 在分歧的社會和機構范疇的運用日增月益,影響愈來愈多的高風險決議計劃,人們必需盡力將社會迷信家、司法學者和其他范疇的專家聯合起來,配合指點 AI 的創立與整合,構成歷久的理論標準。

  正如人們不愿望讓律師去優化深度神經收集一樣,人們也不該該讓 AI 研討人員可以或許成為刑事司法專家。同理,關于一切須要整合信息技巧的其他社會范疇亦如斯。是以,人們須要司法、安康、教導等范疇的專家介入出去,贊助引導決議計劃,確保 AI 不會老練地低估該范疇的龐雜流程、汗青和情況。

  建議十

  AI 范疇須要嚴厲監視和問責機制,確保 AI 范疇棄舊圖新。

  旨在引誘人力資本范疇的品德守則應附有強無力的監視和問責機制。須要進一步展開任務,就若何將高條理的倫理準繩和最好做法原則與平常開辟進程,促銷和產物宣布周期停止本質性接洽。

  一些盤算機行業集團機構正在制訂品德守則,以確保 AI 開辟的平安與對等。但是,這些做法都是出于團隊自愿,普通只要絕對高真個組織才會將請求 AI 開辟人員將"好處放在較高的優先級。然則,配合好處若何決議?將由誰決議?除去由誰代表"好處這一成績外,AI 代碼在品德方面還要聯合明白的問責機制,還須認識到 AI 行業在鼓勵形式和權利分派方面存在紕謬稱的情形。

  譯者感言:

  AI 最年夜的成績是人們沒法準確地說明 AI 體系為什么做出那樣的決議,沒有方法解開它的蓋子,窺視外部的任務場景,我們只能選擇信任它。這就為我們帶來了偉大的挑釁。我們該若何信任 AI 呢?這也是全球"廣泛擔心的成績之一。哈佛法學院互聯網司法傳授 Jonathan Zittrain 已經說:“在技巧贊助下,我們的體系變得愈來愈龐雜,我很擔憂人類的自立性被削減。假如我們設置了體系,然后將其忘諸腦后,體系的自我演化帶來的效果能夠讓我們懊悔莫及。對此,今朝還沒有明白的品德層面上的斟酌。”

  假如我們可以或許制訂行業尺度和品德尺度,并周全懂得 AI 存在的風險,然后樹立以倫理學家、技巧專家和企業引導工資焦點的監管機制異常主要。這是應用 AI 為全人類謀福利的最好方法。人工智能的潛力與威逼,其實一向都取決于人類本身。

只要你關注機器人,你就無法錯過睿慕課

 
 
 
[ 行業資訊搜索 ]  [ 加入收藏 ]  [ 告訴好友 ]  [ 打印本文 ]  [ 關閉窗口 ]
 
 
主站蜘蛛池模板: 午夜国产羞羞视频免费网站 | 国产高清精品入口麻豆 | 一级毛片免费在线观看网站 | 日韩1| 35pao免费视频 | 亚洲欧美日韩一区高清中文字幕 | 大象焦伊人久久综合网色视 | 国产黄色大片 | 福利理论片午夜片 | 最新日本免费一区二区三区中文 | 激情午夜| 欧美福利第一页 | 一二三四视频社区在线中文1 | 欧美精品www | 欧美精品一区二区三区四区 | 深夜免费网站 | 欧美国产日韩一区 | 国产一级一片 | 亚洲色图综合网站 | 一个人免费观看视频www | 99看视频 | 影音先锋国产精品 | 六月综合激情 | 一级午夜a毛片免费视频 | 日韩精品一区二区三区国语自制 | 色综合色综合 | 黄色大片在线视频 | xxxwww欧美性 | 77788色淫免费网站视频 | 成人禁18视频在线观看 | 另类视频欧美 | 168黄色网| 日韩精品第一页 | www.一级片.com| 在线免费看毛片 | 老子影院午夜伦不卡不四虎卡 | 日本高清xxxxx | 美女一级毛片免费不卡视频 | 国产在线观看不卡免费高清 | 黄色免费的视频 | 欧美一页 |