paper-review |

FinRL 리뷰 - 주식 데이터 전처리

June 25, 2023, 11:24 a.m.
주식 데이터 전처리 방법

최근 주식 관련 강화학습 논문들을 리뷰하고 싶은 욕구가 생겼다. 천천히 리뷰를 진행…


[RecSys'22] Off-Policy Actor-critic for Recommender Systems

March 9, 2024, 9:38 p.m.
추천시스템에 강화학습 모델인 actor critic을 적용시킨 논문

오랜만에 논문리뷰


Pfeed: Generating near real-time personalized feeds using precomputed embedding similarities

March 18, 2024, 3:20 p.m.
유저 임베딩은 유저의 다양한 선호도를 포착하는데는 어려움이 있으며, 실시간성을 트래킹하는 것 역시 비용이 많이든다는 문제가 있음. 이런 문제들을 현업에서 다루는 방법을 제시한 논문

검색 및 추천에 사용할 수 있는 Cold-start에 강한 Two-tower 모델을…


[SIGIR'23] PersonalTM: Transformer Memory for Personalized Retrieval

June 21, 2024, 4:12 p.m.
Two Tower 모델 리서치

Two tower 모델 논문 리뷰


LLM Review Part1

July 10, 2024, 11:55 a.m.
LLM 모델의 연구흐름을 리뷰한다. Part1은 GPT 에 집중

GPT 연구 흐름에 집중한다.


[Arxiv'18] FOMAML: On First-Order Meta-Learning Algorithm

Aug. 6, 2024, 10:12 p.m.
Optimization-based Meta Learning 의 seed 논문인 MAML를 개선한 논문

이 post에서 MAML Family로 많이 언급되는 알고리즘인 FOMAML, Re…


[IJCNLP'21] Prefix-Tuning: Optimizing Continuous Prompts for Generation

Aug. 23, 2024, 3:35 p.m.
Stanford 에서 발표한 PEFT 기법중 soft prompt로 분류되는 방법

LLM에서 많이 사용되는 P-tuning, Prefix-tuning, Prompt-…


[WWW'19] EASE: Embarrassingly Shallow Autoencoders for Sparse Data

Oct. 25, 2024, 11:29 a.m.
Netflix에서 발표한 추천 논문. Sparse한 데이터에 대해 강점이 있다는 사실을 수식으로 증명해내고 성능을 보임

Netflix의 senior data scientist 로 근무중인


[SIGIR'24] PO4ISR: Large Language Models for Intent-Driven Session Recommendations

Oct. 28, 2024, 6:41 p.m.
LLM으로 SR 에서 prompt-tuning을 통해 Intention을 파악해 성능을 높히는 architecture(ISR)를 제안한 논문

발표 영상은 다음과 같음. 싱가폴의 A* 연구기관에서 발표.


[SIGIR'24] SeRALM:Enhancing Sequential Recommenders with Augmented Knowledge from Aligned Large Language Model

Oct. 29, 2024, 6:31 p.m.
LLM를 recommendation task에 맞춰 align 시켜 성능 향상을 이끈 논문


[SIGIR'24] Setwise Approach for Effective and Highly Efficient Zero-shot Ranking with Large Language Models

Oct. 31, 2024, 9:08 a.m.
setwise prompting 기법으로 Zero-shot document ranking 즉, LLM-based zero-shot ranking task에서 높은 효율성과 우위 달성한 방법. Re-ranking에 초점이 맞춰짐


[CIKM'23] Meta-Learning with Adaptive Weighted Loss for Imbalanced Cold-Start Recommendation

Nov. 4, 2024, 6:11 p.m.
MAML 방법을 적용할때 SR의 데이터셋은 불균형이 심각해 최적화하기 어려운데 이를 보정하기 위한 방법을 제시한 논문

 


[Arxiv'24] Smarter, Better, Faster, Longer: A Modern Bidirectional Encoder for Fast, Efficient

Dec. 24, 2024, 2:21 p.m.
최근 발표된 ModernBERT 로 불리우는 방법을 제안한 논문

BERT 는 근래 LLM 의 발전으로 transformer 의 decoder 모델인…


[EMNLP'21] SimCSE: Simple Contrastive Learning of Sentence Embeddings

Feb. 8, 2025, 10:30 p.m.
Sentence Embedding 을 Contrastive learning으로 학습하고자 한 시도

논문링크:


[SIGIR'21] Contrastive Learning for Sequential Recommendation

Feb. 18, 2025, 8:01 p.m.
세션기반 추천 모델에 contrastive learning loss 도입 하여 성능 향상을 이룬 논문

주어진 Session 에 대한 Representation 을 구할 때 유사한 ses…


RL기반 LLM Alignment tuning 방법론 중 하나인 DPO Loss 유도과정을 이해

March 17, 2025, 6:45 p.m.
DPO는 별도 보상모델 없이 정책모델의 확률분포 자체로 인간의 선호를 직접 학습