vertical linevertical linevertical line

카트

logo
메인이미지

마스터링 트랜스포머

BERT에서 LLM, 스테이블 디퓨전까지, Transformers 라이브러리와 함께하는 트랜스포머 탐구

사바슈 이을드름,메이삼 아스가리지헤낙흘루저/307번역랩,류광위키북스2025년 1월 10일
정가
35,000
판매가
31,50010%
마일리지
1750
배송비
무료
ISBN
K522035557
전자책
28,000
수량
minusplus
총 상품 금액31,500

설명

closeImage
  • 도서명마스터링 트랜스포머 - BERT에서 LLM, 스테이블 디퓨전까지, Transformers 라이브러리와 함께하는 트랜스포머 탐구
  • 지음/옮김사바슈 이을드름, 메이삼 아스가리지헤낙흘루 (지은이), 307번역랩, 류광 (옮긴이)
  • 주제 분류국내도서>컴퓨터/모바일>컴퓨터 공학>자료구조/알고리즘
  • 책소개BERT, T5, GPT, DALL-E, ChatGPT 같은 트랜스포머 기반 언어 모델이 자연어 처리(NLP) 연구를 주도하며 새로운 패러다임을 형성하고 있다. 정확하고 빠른 미세조정 능력 덕분에 이 모델들은 까다로운 자연어 이해(NLU) 문제에서 전통적인 머신러닝 기반 접근 방식을 능가하는 성능을 보여준다.

정보고시

closeImage

지속가능성

closeImage

한줄평

closeImage