LIGER 采用雙向 Transformer 編碼器和生成解碼器。密集檢索部分整合了項(xiàng)目文本表示、語義 ID 和位置嵌入,并使用余弦相似度損失進(jìn)行優(yōu)化。生成部分使用波束搜索根據(jù)用戶交互歷史預(yù)測(cè)后續(xù)項(xiàng)目的語義 ID。
通過這種混合推理過程,LIGER 降低了計(jì)算需求,同時(shí)保持了推薦質(zhì)量。LIGER 還能很好地泛化到未見過的項(xiàng)目,解決了先前生成模型的關(guān)鍵限制。
LIGER 性能
在 Amazon Beauty、Sports、Toys 和 Steam 等基準(zhǔn)數(shù)據(jù)集上的評(píng)估顯示,LIGER 的性能持續(xù)優(yōu)于 TIGER 和 UniSRec 等現(xiàn)有最先進(jìn)模型。
例如,在 Amazon Beauty 數(shù)據(jù)集上,LIGER 對(duì)冷啟動(dòng)項(xiàng)目的 Recall@10 得分為 0.1008,而 TIGER 為 0.0。在 Steam 數(shù)據(jù)集上,LIGER 的 Recall@10 達(dá)到了 0.0147,同樣優(yōu)于 TIGER 的 0.0。
隨著生成方法檢索的候選數(shù)量增加,LIGER 與密集檢索的性能差距縮小,展現(xiàn)了其適應(yīng)性和效率。