在 2023 年的 Black Hat 大會開場主題演講中,深入探討了大型語言模型(LLMs)對網絡安全行業及其生態系統所帶來的廣泛影響。演講首先介紹了 Google 和 Microsoft 在人工智能領域的持續投資,特別強調 Microsoft 已單獨投入了 130 億美元的巨額資金。然而,這一龐大數字引發了人們的思考,為何一家企業願意在人工智能領域投入巨額資金?特別是在許多專家、政府和評論家都建議謹慎推進人工智能普及的當下,為何他們卻迅速將其推向市場?
傳統搜索引擎如 Bing 和 Google 會對內容進行索引,並運用演算法來決定搜索引擎結果頁面(SERP)上最相關的結果,同時也會提供一些置頂廣告。如果您是一名內容創作者並擁有網站,那麼您的盈利模式可能包括廣告,或者將內容僅向訂閱者或付費讀者開放。大多數情況下,您可能依賴通過搜索引擎產生的流量,即用戶點擊 SERP 中的連結,然後直接瀏覽您的網站。然而,如果大型語言模型(LLM)負責回答搜索問題,繞過了對 SERP 的需求呢?人工智能通過大量數據來訓練 LLM,使其能夠給你「一個」更人性化的回答。這個回答的內容,可能來自多個不同的網站,但沒有來源出處,也沒有為內容創作者提供盈利的選擇。這已不再僅僅是技術競賽,更涉及如何爭取搜索市場份額並實現盈利。
Microsoft 是最大的搜索引擎供應商之一,但大部分市場份額仍由 Google 佔據。這無疑對一個價值 2,250 億美元的市場產生了巨大影響,這或許解釋了為何要在 AI LLMs 上投資。通過一個單一的回答取代熟悉的搜索結果列表,意味著發出查詢的用戶將永遠停留在這個新的「SERP」頁面上,將所有流量都保留在搜索引擎提供商那裡,從而通過廣告等方式實現盈利。
類似的現象實際上已經出現。例如,新聞內容有時會直接顯示在 SERP 或社交媒體頁面上;儘管有顯示內容出處,但發出查詢的用戶無需訪問新聞網站,因此不會產生廣告或付費閱讀的流量。這可能導致許多內容創作者因缺乏資金而停止提供高質量的信息。如果 LLM 是基於當時可用的內容來回答問題,而內容創作者已停止更新相關內容,那麼人工智能的結果可能會變得比現在更不可靠。為此,加拿大政府已經率先立法,推出了 C-18 法案,以保護新聞內容創作者。該法案強制內容平台和創作者進行談判,為他們的內容獲得補償,從而實現盈利。
為何這一問題最終會影響到網絡安全領域?資金不足可能導致網站擁有人停止更新軟件或支付費用來保護他們的網站,網絡罪犯可以藉此發布操縱 LLM 的內容。在這個過渡期,需要考慮內容創作者所面臨的困境,以確保互聯網仍然是一個盈利來源,也是真實和準確信息的可靠來源。