트랜스포머 아키텍처 (Transformer Architecture)
2017년 구글 연구진이 제안한 신경망 구조로, 어텐션 메커니즘을 사용하여 입력 데이터의 다른 부분에 대한 중요도를 학습하는 방식. 이전의 순환 신경망(RNN)이나 컨볼루션 신경망(CNN) 기반 모델보다 훨씬 효율적으로 장거리 의존성을 포착할 수 있어 자연어 처리(NLP) 분야에 혁신을 가져왔으며, 오늘날 거대 언어 모델(LLM)의 기반이 되는 핵심 기술
용례
"구글 연구팀이 개발했으며 현재 업계 전반에 걸쳐 널리 사용되는 트랜스포머 아키텍처는 중국 기관 저자가 참여한 292편의 논문에 등장"