
根據最新民調,美國民眾對人工智慧工具的採用率持續上升,然而對其信任度卻呈現下降趨勢。這項結果凸顯了在 AI 快速發展的同時,社會對其透明度、監管以及潛在社會影響的深層擔憂。
AI採用率與信任度的矛盾現象
昆尼皮亞克大學的最新民意調查顯示,儘管越來越多美國人開始將 AI 工具融入日常生活與工作中,但他們對這些工具的信任度卻在降低。這種「用得多、信得少」的矛盾現象,反映了公眾對 AI 技術的複雜情感與不確定性。
調查指出,民眾普遍擔心 AI 的決策過程缺乏透明度,難以理解其運作邏輯,進而影響對結果的信任。此外,對於 AI 可能帶來的道德倫理問題、隱私風險以及對就業市場的衝擊,也存在普遍的憂慮。
透明度與監管成為關鍵挑戰
報告進一步指出,AI 的「黑箱問題」是導致信任度低落的主要原因之一。當使用者無法理解 AI 如何得出特定結論時,自然會對其準確性和公正性產生懷疑。
同時,對於 AI 缺乏明確的法律法規框架,也讓民眾感到不安。人們普遍認為,政府和相關機構應盡快制定完善的監管政策,以確保 AI 的發展符合公共利益,並有效防範潛在風險。
廣泛社會影響引發深層擔憂
除了技術層面的擔憂,受訪者也對 AI 更廣泛的社會影響表達了關切。這包括 AI 可能加劇社會不平等、散播假訊息、甚至對民主進程造成威脅等問題。
這些深層次的擔憂表明,AI 的普及不僅僅是技術層面的變革,更是一場涉及社會、文化、經濟和政治等多方面的巨大轉型。如何在推動 AI 創新的同時,有效應對這些社會挑戰,將是未來十年各國政府和科技公司必須共同面對的課題。
如何重建AI信任?
要彌合 AI 採用率與信任度之間的鴻溝,需要多方面的努力。首先,AI 開發者應致力於提升技術的透明度和可解釋性,讓使用者能更好地理解 AI 的決策過程。
其次,政府和國際組織應加快制定全球性的 AI 監管框架,確保 AI 的負責任發展。最後,公眾教育也是重要一環,幫助人們更全面地認識 AI 的潛力與限制,從而建立更理性、健康的信任關係。
美國AI採用率與信任度呈現反向趨勢,凸顯了社會對AI透明度、監管及社會影響的深層擔憂。未來需透過提升AI可解釋性、完善監管法規與加強公眾教育,以重建信任並確保AI的負責任發展。
更多 AI 新聞
追蹤 IG 第一時間收到 AI 新聞推播。