- 도서명마스터링 트랜스포머 - BERT에서 LLM, 스테이블 디퓨전까지, Transformers 라이브러리와 함께하는 트랜스포머 탐구
- 지음/옮김사바슈 이을드름, 메이삼 아스가리지헤낙흘루 (지은이), 307번역랩, 류광 (옮긴이)
- 주제 분류국내도서>컴퓨터/모바일>컴퓨터 공학>자료구조/알고리즘
- 책소개BERT, T5, GPT, DALL-E, ChatGPT 같은 트랜스포머 기반 언어 모델이 자연어 처리(NLP) 연구를 주도하며 새로운 패러다임을 형성하고 있다. 정확하고 빠른 미세조정 능력 덕분에 이 모델들은 까다로운 자연어 이해(NLU) 문제에서 전통적인 머신러닝 기반 접근 방식을 능가하는 성능을 보여준다.