(資料圖片)
封面新聞記者 歐陽宏宇
當ChatGPT等AIGC工具能力不斷進化,其替代基礎性工作已成為大勢所趨。可如果沒有了基礎職位,人們該通過何種途徑成長?又應該通過哪些機制確保技術不被濫用?
近日,在復旦科創先鋒論壇上,專家和業內人士圍繞ChatGPT等AIGC產品背后的危與機分享了觀點。專家認為,ChatGPT往不同細分專業方向發展的趨勢已不可逆轉,它將倒逼人們不要再生產學術垃圾。同時,雖然AI可替代一部分工作,但對每個個體而言,替代人的不是AI,而是其他善用AI的人。
當大型語言模型技術快速演進,越來越多的人意識到人類的部分工作或將被機器替代。復旦大學計算機科學技術學院教授邱錫鵬認為,雖然和機器學習相比,人類有天然的劣勢,但人類的適應性和靈活性更強,更擅長利用AI把工作做到更好。
在復雜系統中,人的理解能力相對有限,這時候利用機器尋找數據的能力就更加重要。在上海樂言科技創始人兼CEO沈李斌看來,ChatGPT只能解決重復性的工作,卻無法替代專業領域頂級勞動者。因此,“替代你的不是AI,是善用AI的人”。
基于“一萬小時定律”,資深的專業人士都是從入門成長起來的。有專家擔心,入門職位被AI占據后,人們也就失去了成長的途徑。
不過,復旦大學中文系教授嚴鋒則認為,這會倒逼人類重新學習和適應,再出發。“以教師工作為例,ChatGPT會倒逼我們不要再生產學術垃圾,進而從低效重復的勞動中解放出來,專注于更富獨創性的工作中,成為積極的提問者。”
時下,對于暫停AIGC技術進一步研發的建議在海外科技人士中呼聲很高,其焦點是在大規模商業化進程中避免技術被濫用。對此,復旦管院信息管理與商業智能系教授張誠認為,站在工具的角度,只要對工具有相應規則,就不一定非要通過“停止”來實現約束;況且,這也不排除是企業為保護先發優勢的商業競爭策略。
邱錫鵬也建議,開發AI產品一定要讓其對齊到人類的價值觀,使人機和諧共處。“政府監管要考慮怎么讓技術符合社會價值觀,體現社會公平;也要鼓勵企業先用起來,并多做產線結合,讓AIGC工具更快成長。”
關鍵詞: