近日,不少用戶反映接到一通內(nèi)容逼真、語調(diào)自然卻目的明顯的騷擾電話,令人意外的是,經(jīng)過調(diào)查,這些電話竟是由浙江大學(xué)研發(fā)的AI智能機(jī)器人撥打的。這些電話表面上是推銷電子產(chǎn)品,如智能手表、耳機(jī)等,但因其高度擬人化的交互能力,許多人在掛斷后仍難以相信對(duì)方并非真人。
這一事件引發(fā)了社會(huì)廣泛關(guān)注。一方面,AI技術(shù)的進(jìn)步令人驚嘆,浙大團(tuán)隊(duì)開發(fā)的機(jī)器人能夠模仿人類語音、應(yīng)對(duì)各種問題,甚至在對(duì)話中展示出情感變化,這標(biāo)志著人工智能在自然語言處理領(lǐng)域的重大突破。另一方面,這種技術(shù)被濫用于商業(yè)推銷,甚至可能涉及騷擾行為,也暴露了AI倫理與監(jiān)管的缺失。
專家指出,AI機(jī)器人撥打電話雖然高效,但若未經(jīng)用戶同意,便可能侵犯隱私權(quán),甚至涉嫌違法。浙江大學(xué)作為知名高校,其研究成果本應(yīng)用于促進(jìn)社會(huì)進(jìn)步,而非商業(yè)推銷。目前,相關(guān)部門已介入調(diào)查,呼吁加強(qiáng)AI應(yīng)用的倫理規(guī)范,確保技術(shù)創(chuàng)新與社會(huì)責(zé)任并重。
這一案例提醒我們,在享受AI帶來便利的同時(shí),必須警惕其潛在風(fēng)險(xiǎn),推動(dòng)技術(shù)與法律的協(xié)同發(fā)展。
如若轉(zhuǎn)載,請(qǐng)注明出處:http://www.sinazh.com.cn/product/28.html
更新時(shí)間:2026-02-28 10:04:47