All | All

[SIGIR'24] Setwise Approach for Effective and Highly Efficient Zero-shot Ranking with Large Language Models

Oct. 31, 2024, 9:08 a.m.
setwise prompting 기법으로 Zero-shot document ranking 즉, LLM-based zero-shot ranking task에서 높은 효율성과 우위 달성한 방법. Re-ranking에 초점이 맞춰짐


[SIGIR'24] SeRALM:Enhancing Sequential Recommenders with Augmented Knowledge from Aligned Large Language Model

Oct. 29, 2024, 6:31 p.m.
LLM를 recommendation task에 맞춰 align 시켜 성능 향상을 이끈 논문


[SIGIR'24] PO4ISR: Large Language Models for Intent-Driven Session Recommendations

Oct. 28, 2024, 6:41 p.m.
LLM으로 SR 에서 prompt-tuning을 통해 Intention을 파악해 성능을 높히는 architecture(ISR)를 제안한 논문

발표 영상은 다음과 같음. 싱가폴의 A* 연구기관에서 발표.


[WWW'19] EASE: Embarrassingly Shallow Autoencoders for Sparse Data

Oct. 25, 2024, 11:29 a.m.
Netflix에서 발표한 추천 논문. Sparse한 데이터에 대해 강점이 있다는 사실을 수식으로 증명해내고 성능을 보임

Netflix의 senior data scientist 로 근무중인