https://lutein.ailabs.tw/?fbclid=Iw...d-lbCEzEtD6vB-s
Project Lutein 葉黃素計畫
研究觀察並揭露社交媒體平台中立性現況,並且建立公開資料,協助研究社交平台對閱聽者之潛在認知操作影響。
台灣人工智慧實驗室「葉黃素計畫」研究說明
社群媒體演變成為媒體通路,平台藉由取得傳統媒體的內容,吸引使用者並透過演算法的排序,包裝成精準行銷工具販售使用者的認知。 社群媒體一般為營利企業,以最大化獲利為目標,2019 年 The Great Hack 紀錄片,報導 2018 年劍橋分析公司透過臉書操作境外政治公關, 並且利用精準行銷工具,有效影響包含美國 2016 大選、英國 2016 脫歐公投、台灣 2018 年選舉等兩百多場民主國家的選舉。 2020 年 The social dilemma 紀錄片探討社群媒體的同溫層設計,如何兩極化討論群眾,讓彼此看不到對方的言論, 社交成癮,並以其精準行銷工具用於境外政治服務,反應出社群平台帶給全球人類與公民社會的重大影響。
另一方面,相較於傳統媒體需要自己生產內容、為自己言論負責,並有相對應的究責與監管單位; 社群媒體業者掌握媒體通路,成為總編輯角色,在幾近無償取得傳統媒體的內容成果,取得行銷利益, 操作認知作戰卻往往不需要為平台上誤導消息負責,以致於成為誤導消息與詐騙的溫床。
由於演算法不透明,使用者無法獲得訊息傳遞的全貌,進而自身的言論遭到審查、遮蔽或降序也不自知。 再由於每個人看到的內容不同,也讓第三方監管或研究機構難以一窺究竟。 使用者成為架上商品,卻對於平台演算法如何每天影響自己對世界的認知無法了解或無能為力。
為分析社群平台現況建立公開資料,台灣人工智慧實驗室 (Taiwan AI Labs) 推出「葉黃素計畫 (Project Lutein)」, 開放工具讓學研單位合作研究社群平台的中立性與認知影響,並延伸研究其他平台,協助觀察社群平台中立性對閱聽者的潛移默化影響。
「葉黃素計畫」第一步使用瀏覽器的外掛插件,讓使用者可以得知自己受到社群平台審查的現狀,並透過匯集使用者觀點的「公開內容」, 第二步將開放資料建立開源研究方法,協助提供學研單位研究平台中立性與認知影響研究。 AI Labs 已在 GitHub 公開插件原始碼,歡迎對於有意研究社群平台中立性的一般民眾或組織共同加入計畫,以擴大研究範圍。
Taiwan AI Labs 自 2018 年起成立 AI 新聞與輿論分析團隊,自 2017 年 7 月發表記者快抄(
https://ptt.islander.cc/) 建立 AI 記者開源研究,2018 年建立 AI 閱讀新聞並分析媒體與報導者的立場,2019 年建立島民衛星 (
https://islander.cc/),並與 NCC 合作進行電視傳播媒體中立性的分析。 接著由於無國界記者組織報導台灣位於假訊息最前線,在 2020 年疫情期間,台灣人工智慧實驗室研究成果受到多的國家邀請合作, 並透過與行政院合作科技防疫(
https://covirus.cc/Infodemic-intro.html), 與多個國家進行肺炎誤導消息分析。比如 WHO 於 2020 年 4 月初會議,WHO 祕書長譚德塞曾經指控台灣網軍對他以種族歧視字眼辱罵長達 3 個月時, AI Labs 即分析 Twitter 2020 年 1 至 3 月的相關訊息,與國際組織交換開放資料與分析方法,顯示 WHO 祕書長指控缺乏依據。 從與國際組織交換微博與微信上與 COVID-19 有關的假消息,比較 Facebook 與 Twitter 的貼文,共同觀察到肺炎誤導與假消息傳散路徑與手法, 並發掘協同性跨平台的消息傳播時,平台中立性對於民眾認知的重要影響。 對於與國際組織交流社交平台中立性與認知影響,AI Labs 在 2020 年受邀參與 GPAI 會議,在 Responsible AI、Pandemic Response 議題,與 OECD 國家進行交流討論。