Beyond Prompt Engineering: How We Used Supervised Fine-Tuning for Travel Recommendations

Author: Amit Meitin | Source: Booking.com AI Blog | Published: 2026-01-29


한 줄 요약

Booking.com이 7B 오픈소스 모델을 LoRA/QLoRA로 파인튜닝하여 프롬프트 기반 대비 추론 지연 67% 감소와 추천 품질 향상을 달성했다.

핵심 주장/내용

  • 프롬프트 기반(외부 API) + 전통 ML 하이브리드 → SFT 단일 모델로 대체
  • LoRA/QLoRA: 기본 모델 가중치 동결, 어댑터만 학습하여 효율적 커스터마이징
  • K 제어: 학습 샘플에 원하는 추천 수를 정수로 prepend → 정확히 K개 추천 생성
  • 사용자 컨텍스트(위치) 추가만으로 Hit@5 8% 향상 (4일 여행에 장거리 목적지 제거)
  • 레이블 설계: 예약(최강 신호) > 역순 클릭 > LLM-as-Judge 필터링된 조회

주요 수치 / 사실

  • p99 추론 지연 67% 감소 (약 3배 빠름)
  • Hit@5 8% 향상 (사용자 위치 컨텍스트 추가)
  • 모델: 7B 파라미터 오픈소스, AWS ml.g5.2xlarge에서 호스팅
  • 내부 호스팅으로 프라이버시 보호

관련 위키


Source: 원문 보기