| peft

[IJCNLP'21] Prefix-Tuning: Optimizing Continuous Prompts for Generation

Aug. 23, 2024, 3:35 p.m.
Stanford 에서 발표한 PEFT 기법중 soft prompt로 분류되는 방법

LLM에서 많이 사용되는 P-tuning, Prefix-tuning, Prompt-…


[SIGIR'24] PO4ISR: Large Language Models for Intent-Driven Session Recommendations

Oct. 28, 2024, 6:41 p.m.
LLM으로 SR 에서 prompt-tuning을 통해 Intention을 파악해 성능을 높히는 architecture(ISR)를 제안한 논문

발표 영상은 다음과 같음. 싱가폴의 A* 연구기관에서 발표.