試想你若在沒有智慧手機或地圖的情況下迷路,很有可能只能向當地人問路。而 的研究人員也正在以同樣的方式訓練 ,讓它們能更為自然地使用語言對話。

位於紐約的 Facebook 人工智能研究小組( FAIR )創建了兩個人工智能,一個扮演在紐約走失的「遊客」,而另一個則為以人類語言幫助他指路的「導遊」,這個構想源自於嬰兒學說話時,將詞語與真實物體做出關聯的學習過程。扮演遊客一方可以看到現實世界的照片,而導遊一方看到的則是帶有地標的平面地圖,兩個 AI 透過簡單街景,共同試著找出目的地。

然而,要訓練出會指路的 AI 也並非易事。臉書研究員指出,要構建出能夠回答簡單命令甚至是進行基本會話的演算法很容易,但機器無法進行複雜的對話,是因為解讀模稜兩可的語句需要日常生活中的基本常識,而給予 AI 一套原則或是大量的樣本學習「常識」都將導致演算法誤解,因此複雜的對話對於人工智能而言仍存在巨大挑戰。

Facebook 研究人員使用 360° 相機捕捉紐約市社區,包括地獄廚房、金融區、上東區和威廉斯堡,試圖讓 AI 演算法通過簡單的常識來理解現實世界中的語言。研究人員亦指,迄今為止的大多數 AI 研究都是在模擬環境下進行而不是實際圖像,而越多的真實因素將帶來越多挑戰,但一旦可行將讓人工智能演算法變得更有用。

研究人員甚至進行了實驗,發現演算法之間可以有自己的協議或語言,有趣的是,當 AI 被允許執行此操作時,處理起事情是最有效的。 Facebook 研究人員也發布此一研究項目的程式碼,代號為「 Walk the Talk 」,希望其他 AI 科學家利用此一資源進一步研究 AI 的語言算法,或許真有一天,紐約街頭會出現指路的 AI 機器人。