용어 사전 / Glossary
AI 핵심 용어 30선
ppaliAI 본문에 자주 등장하는 용어들의 한국어 표기, 영문, 변형, 단문 정의입니다. 처음 보는 용어를 만나면 이 페이지를 참조하세요.
모델 / model
- 챗GPT(ChatGPT)· 챗지피티 · ChatGPT
- OpenAI가 2022년 11월 공개한 대화형 AI 챗봇. GPT 모델 계열 위에서 사용자 메시지에 답하도록 튜닝됨.
- 클로드(Claude)· Claude
- Anthropic이 개발한 대화형·코딩·에이전트용 AI 모델 계열. Haiku, Sonnet, Opus 세 티어로 제공.
- 제미나이(Gemini)· 제미니 · Gemini
- Google이 만든 멀티모달 AI 모델 계열. Pro / Flash / Ultra 등으로 세분화.
- 대규모 언어 모델(LLM)· 거대 언어 모델 · LLM · 대형 언어 모델
- 수십억~수천억 파라미터를 가진 신경망 언어 모델. 텍스트 생성·이해·추론 등 범용 자연어 작업에 사용.
- 파운데이션 모델(Foundation Model)· 기반 모델
- 다양한 downstream 작업으로 파생 가능한 대규모 범용 사전학습 모델.
- 오픈웨이트 모델(Open-weights LLM)· 오픈소스 LLM
- 가중치가 공개돼 자체 인프라에서 추론·파인튜닝 가능한 LLM. Llama, Mistral, DeepSeek 등.
개념 / concept
- 프롬프트 엔지니어링(Prompt Engineering)· 프롬프트 설계
- LLM에 입력하는 지시문을 구조화·반복 개선해 출력 품질을 끌어올리는 작업.
- 컨텍스트 엔지니어링(Context Engineering)· 맥락 엔지니어링
- 프롬프트뿐 아니라 도구·메모리·검색 결과까지 LLM 입력 컨텍스트 전체를 설계하는 상위 개념.
- 토큰(Token)
- LLM이 텍스트를 처리할 때 다루는 최소 단위. 영어 1단어 ≈ 1.3 토큰, 한국어 1글자 ≈ 1.5~3 토큰.
- 토크나이저(Tokenizer)· 토큰화기
- 텍스트를 토큰 시퀀스로 변환하는 컴포넌트. 모델별로 다르며 한국어 효율 차이가 큼.
- 생성형 AI(Generative AI)· 생성 AI · 제너레이티브 AI
- 기존 데이터로부터 새 텍스트·이미지·코드 등을 생성하는 AI 분야의 총칭.
- 리즈닝(Reasoning)· 추론 (사고형) · 추론 모델
- 답을 내기 전 내부 사고 단계를 길게 거치도록 학습된 모델 동작. o1·Claude 3.5 Sonnet Thinking 등.
- 사고의 사슬(Chain-of-Thought)· CoT · 체인 오브 쏘트
- LLM이 단계별 사고 과정을 명시적으로 출력하도록 유도해 정답률을 높이는 프롬프팅 기법.
- 바이브 코딩(Vibe Coding)
- 코드를 직접 쓰기보다 LLM에게 의도를 자연어로 전달해 결과물을 받아내는 개발 스타일.
- 가드레일(Guardrail)· 안전 장치
- LLM이 위험하거나 부적절한 출력을 내지 않도록 입출력 단계에 둔 검증·필터링 장치.
에이전트 / agent
- AI 에이전트(AI Agent)· 인공지능 에이전트 · 에이전트
- 사용자 목표를 받아 도구 호출·웹 탐색·코드 실행 등으로 작업을 자율 수행하는 LLM 기반 시스템.
- 모델 컨텍스트 프로토콜(MCP)· MCP · Model Context Protocol
- Anthropic이 제안한 LLM↔외부 도구 호출 표준. 모든 도구를 같은 인터페이스로 노출.
- 멀티 에이전트(Multi-agent)· 다중 에이전트
- 여러 LLM 에이전트가 역할을 나누어 협업하는 패턴. 큐레이터·작가·편집자 등으로 분업.
- 코딩 에이전트(Coding Agent)· 코드 에이전트
- 코드 작성·수정·테스트·디버깅을 자율 수행하는 AI 에이전트. Claude Code, Cursor Composer 등.
인프라 / infra
- 검색 증강 생성(RAG)· RAG · 알에이지
- LLM 답변 전에 외부 문서를 검색해 컨텍스트로 주입하는 패턴. 환각 감소와 최신 정보 반영에 사용.
- 파인튜닝(Fine-tuning)· 미세 조정 · 파인 튜닝
- 사전 학습된 모델을 특정 도메인 데이터로 추가 학습시켜 성능을 도메인에 맞추는 기법.
- 임베딩(Embedding)· 벡터 임베딩
- 단어·문장·이미지를 의미적으로 유사하면 가까운 벡터로 사상하는 표현 방식. 검색·분류에 사용.
- 벡터 데이터베이스(Vector Database)· 벡터 DB
- 임베딩 벡터를 저장하고 유사도 기반으로 빠르게 검색하는 데이터베이스. RAG 인프라의 핵심 부품.
- 추론(Inference)· 인퍼런스
- 학습이 끝난 모델이 실제 입력에 답을 생성하는 단계. 학습보다 훨씬 자주 일어남.
- 사전 학습(Pretraining)· 프리트레이닝
- 대규모 일반 데이터로 LLM의 기본 언어 능력을 갖추게 하는 단계. 비용·시간 부담이 가장 큼.
- 강화 학습 (RLHF)(RLHF)· 강화학습 · 사람 피드백 강화학습
- 사람이 매긴 선호 점수로 LLM 출력을 보상해 정렬하는 학습 방식. ChatGPT 이후 표준화.
- 트랜스포머(Transformer)
- 2017년 구글 논문에서 제안된 어텐션 기반 신경망 구조. 현대 LLM의 거의 모든 아키텍처 기반.
- 어텐션(Attention)· 주의 메커니즘
- 입력 토큰 사이 관계를 가중치로 계산해 중요한 부분에 집중하는 메커니즘.
평가 / evaluation
- 환각(Hallucination)· 환각 현상 · 할루시네이션
- LLM이 사실이 아닌 내용을 그럴듯하게 만들어내는 현상. 학습 데이터 부족·추론 오류 등으로 발생.
마케팅·검색 / marketing
- 생성형 엔진 최적화(GEO)· GEO · AEO
- ChatGPT·Claude·Perplexity 등 생성형 AI의 답변에 자신의 콘텐츠가 인용되도록 최적화하는 전략.
이 사전은 본문 작성 시 자동 매칭되어 각 글의 definitions JSON-LD에 포함됩니다. 표기 제안·정정은 /corrections/ 또는 편집부 이메일.