🔄
Seq2Seq
시퀀스 투 시퀀스 변환 모델로 기계번역·요약·QA 등에 활용
Seq2Seq
인코더
디코더
NLP
주요 특징
인코더-디코더 구조
입력을 압축하고 새로운 시퀀스로 재구성하는 2단계 처리
가변 길이 처리
입출력 길이가 다른 시퀀스 변환 작업에 유연하게 적용
컨텍스트 벡터
인코더가 생성하는 압축된 표현으로 디코더가 출력 생성
어텐션 메커니즘
컨텍스트 벡터 한계를 극복하고 특정 부분에 집중
모듈화 설계
인코더/디코더를 독립적으로 설계하여 다양한 결합 가능
확장성
Transformer, BART 등 최신 아키텍처의 기반이 됨
활용 분야
자연어 처리 (NLP)
- ✓기계 번역
- ✓텍스트 요약
- ✓질의응답 시스템
- ✓대화 시스템
음성 및 오디오
- ✓음성-텍스트 변환
- ✓텍스트-음성 변환
- ✓음악 생성
- ✓오디오 분류
평가 정보
전문성: 8.5/10
인코더-디코더 구조와 어텐션 메커니즘 이해가 필요합니다.
학습난이도: 8.0/10
Teacher forcing과 스케줄링 전략이 중요합니다.
사용편의성: 7.0/10
구현은 간단하지만 튜닝이 복잡합니다.
활용도: 8.5/10
시퀀스 변환 작업의 기본 모델로 널리 사용됩니다.