English

預防自殺﹐交給人工智能何嘗不可

2017-11-29 14:15:24

無論網絡自殺預告有多大的信度﹐祗要有一絲真實的可能﹐就值得社會千方百計拯救。使用人工智能來篩查“自殺預告”﹐顯然提高了社會自殺信息預警的覆蓋面﹐減少干預機構的反應時間。

  美國社交網站臉書(Facebook)表示﹐已開發出能夠辨識輕生念頭的人工智能軟件﹐即將將之推廣到其它國家。事實上﹐已有多個研究團隊表示研發出了能夠預防自殺的人工智能技術﹐主要方法都是在郵件﹑論壇﹑社交媒體平臺中分析含有自殺傾向和想法的語言﹐讓心理干預人員獲得及時介入的機會。在初步的試驗中﹐有的機器識別正確率超過了90%。

預防自殺﹐交給人工智能何嘗不可

  儘管類似的系統精准性有待驗證﹐比如會不會“誤傷”原本沒有真實自殺念頭的用戶──有的自殺念頭僅能表現用戶“為賦新詞強說愁”的心理﹐但是﹐運用人工智能排查互聯網上的海量數據﹐無疑是高效率地預防自殺的思路。

  首先﹐“預告式自殺”在互聯網上普遍存在。搜索近期新聞﹐就能看到許多通過微博等渠道“預告自殺”﹐得到關注後被成功解救的例子。無論這種網絡自殺預告有多大的信度﹐祗要有一絲真實的可能﹐就值得社會千方百計拯救。使用人工智能來篩查“自殺預告”﹐顯然提高了社會自殺信息預警的覆蓋面﹐減少干預機構的反應時間。

  其次﹐即使一個人不直接表露自殺意願﹐人工智能依然有機會分析出其自殺傾向。例如﹐機器可以統計與自殺相關的詞語的使用頻率﹐當一段時間內某個人頻繁地使用一些跟自殺相關的詞語時﹐人工智能就可以發出預警。機器能夠察覺出語詞間的細微差別﹐對一個人語言習慣作整體的畫像﹐而這是感性的人工排查無力實現的。

  其實﹐很多人都產生過自殺的想法﹐但未必會將自殺付諸實施。機器所能做的是將自殺想法排查出來。儘管自殺念頭和自殺行為之間隔了很大的距離﹐人工智能的介入仍然很有意義。至少﹐對整個社會人群的心理健康而言﹐自殺的想法無疑是一個很重要的指標。當被機器檢測出存在自殺傾向以後﹐你也許不必被當成自殺者那樣看待﹐但一定有必要找個心理諮詢師聊聊了。

  當然﹐這樣的人工智能技術能不能有效實施﹐還取決於數據來源是否足夠豐富。很多表達潛在自殺者內心想法的言語﹐可能出現在非公開的﹑受隱私保護的領域﹐比如不對外公開的朋友圈﹐需要添加好友才能看到的社交圈﹐等等。人工智能技術是否有權利突破隱私保護的限制﹐既是一個倫理問題﹐也是一個法律問題。即使認為自殺干預很有必要﹐網絡平臺也應該事先跟用戶簽訂協議﹐以避免後期產生糾紛。

  在科幻作品中﹐人工智能被賦予了複雜的形象﹐很多人擔心人工智能會對人類過多的控制。其實﹐在現實中沒必要那麼緊張﹐人類對人工智能技術有充分的駕馭能力﹐完全可以將技術用於安全﹑健康的環境中。預防自殺可謂是人工智能技術的小試牛刀﹐大膽設想的話﹐人工智能可以在人類健康領域扮演更重要的角色。當人工智能發展到一定水平﹐人們對健康管理﹑心理管理的觀念也勢必大不一樣。

  當然﹐人類利用人工智能﹐並不是完全依賴人工智能。就像自殺干預一樣﹐機器可以代替人處理大量數據﹐作初步的篩查﹐但是想要走進存在心理隱患者的內心﹐還是需要內涵更豐富的人工對話。無論如何﹐人工對機器排查作最後的把關﹐不僅是對人工智能技術負責任﹐也是對心理健康管理這一公共健康重要領域的負責任。(王鐘的)

責任編輯﹕劉朝
分享

更多銳評敬請關注

手機光明網

光明網版權所有

光明日報社概況 | 關於光明網 | 報網動態 | 聯繫我們 | 法律聲明 | 光明員工 | 光明網郵箱 | 網站地圖

光明網版權所有