![]() |
||
|
Advance Member
![]() ![]() 加入日期: Nov 2004 您的住址: 高雄市
文章: 421
|
難怪openai最近緊急修改使用守則,需要再加上專家審核。
畢竟蒐集到錯誤資訊就會給出錯誤建議。 如果中華民國律師用了美國法律跟判例會怎樣? AI 幻覺侵蝕法律界:美國律師引用假案例遭重罰,引發全球追查浪潮 人工智慧濫用問題正蔓延至法律界。美國德州一名律師今年向破產法院提交文件時,引用了不存在的「1985 年布拉舍訴史都華案」(1985 case called Brasher v. Stewart),以及 31 條同樣遭捏造的引證。法官嚴厲批評這位律師,將其移交州律師協會並命令其接受六小時 AI 教育課程。 根據《紐約時報》報導,該事件被洛杉磯律師羅伯特·弗羅因德(Robert Freund)揭發,並將此案例上傳至一個專門追蹤全球AI法律濫用的資料庫。這個由律師與研究者組成的線上社群,旨在蒐集、記錄並揭露AI捏造案例的實例,藉此提醒業界建立審查機制。 根據統計,自2022年ChatGPT問世以來,全球已有超過509起類似案件被記錄。專家指出,AI生成內容常出現「幻覺」,也就是虛構但看似真實的資料。 紐約大學法學院教授史蒂芬·吉勒斯(Stephen Gillers)警告,這類錯誤正「損害法律職業的公信力」。美國律師協會也重申,使用AI並非違規,但「律師對文件準確性負最終責任」。 儘管法院陸續開罰,濫用情形仍層出不窮。一名紐約律師泰隆·布萊克本(Tyrone Blackburn)因使用AI撰寫法律文件、誤引虛假案例,被罰款5,000美元並遭客戶解聘,他坦承疏忽稱「未意識到AI能捏造案件」。
__________________
我在故我思 |
|||||||
|
|
|
Senior Member
![]() ![]() ![]() 加入日期: Apr 2017
文章: 1,447
|
人就是人, 不是神, 所以參差不齊, 不是品管驗出來誤差範圍內, 更不是複製貼上完全一樣.
=> 有人說過往經歷/證照, 那就是一種標準, 也就是類似品管的一種邏輯, 我只能說錯很大. 工業品管, 過後就是那個樣子, 固定的, 不會再有變化. 人類品管, 怎麼過關且不論, 過關後變爛的情況很普遍. 請律師很多時候是把關, 但更多時候是門神, 你自己再厲害, 但你不是同一個圈子的.43... 此文章於 2025-11-12 01:45 AM 被 Earstorm-5 編輯. |
||
|
|