Prompt Engineering Guide: LLM Arguments

2024. 11. 22. 23:33·IT/AI
반응형

Prompt Engineering Guide: LLM Arguments

Temperature

  • temperature 높은 경우 (1에 가까운)
    • 다양성과 창의성을 기대
    • 낮은 확률의 토큰도 선택
    • 시 짓기 등 창의적인 작업 등에서 사용
  • temperature 낮은 경우 (0에 가까운)
    • 결정론적 결과를 기대
    • 가장 확률이 높은 토큰 선택
    • 사실적이고 정확한 결과를 필요한 경우에 사용

Top P

핵 샘플링으로 불리우는 `temperature` 샘플링 기법으로 모델의 랜덤성을 조절하는 파라미터입니다.
(A sampling technique with temperature, called nucleus sampling, where you can control how deterministic the model is)
정확하고 사실적인 답변을 원한다면 낮은 값을 사용하고 다양성을 가진 답변을 원한다면 높은 값을 사용해야 합니다.

Temperature 와 Top P 두개 모두 수정하는 방향은 권장되지 않습니다.

Max Length

모델이 생성하는 답변의 토큰의 수를 조절하는 파라미터 입니다.
길거나 관련 없는 답변을 줄여서 비용 절감에 도움을 줍니다.

Stop Sequences

모델의 토큰 생성을 중지하는 문자열 입니다.
예를 들어, "11"을 `stop sequences`로 설정한다면,  항목이 10개를 초과하지 않는 리스트를 생성하도록 모델에 지시합니다.

728x90
반응형
저작자표시 비영리 (새창열림)
'IT/AI' 카테고리의 다른 글
  • [Stable Diffusion] Stable Diffusion 3.5 Text to Image 이미지 생성
  • Prompt Engineering Guide: Prompting Techniques
  • Ollama로 Github PR AI 코드 리뷰 하기
  • [AI] Markdown 을 사용한 Prompts 작성 방법
상쾌한기분
상쾌한기분
  • 상쾌한기분
    상쾌한기분
    상쾌한기분
  • 전체
    오늘
    어제
    • 분류 전체보기 (251)
      • Python (44)
        • Python (26)
        • Django (6)
        • Flask (4)
        • Open Source (6)
      • Kotlin & Java (5)
        • Spring (2)
        • 프로젝트 (1)
      • Go (11)
      • Database (24)
        • MySQL (21)
        • Redis (3)
      • Infrastructure (2)
        • CDC (4)
        • Kafka (5)
        • Prometheus (2)
        • Fluentd (11)
        • Docker (1)
        • Airflow (2)
        • VPN (2)
      • IT (26)
        • AI (9)
        • Langchain (8)
        • Web (18)
        • Git (8)
        • 리팩토링 (9)
        • Micro Service Architecture (8)
        • Clean Code (16)
        • Design Pattern (0)
        • 수학 (1)
        • 알고리즘 (14)
      • OS (14)
        • Centos (10)
        • Ubuntu (3)
        • Mac (1)
      • Search Engine (2)
        • ElasticSearch (1)
        • Lucene Solr (1)
      • PHP (2)
        • Laravel (1)
        • Codeigniter (1)
  • 블로그 메뉴

    • Github 방문
  • 링크

  • 공지사항

  • 인기 글

  • 태그

    티스토리챌린지
    http
    git
    백준
    docker
    Golang
    go
    LLM
    Redis
    Langchain
    performance
    MYSQL
    ollama
    fluentd
    파이썬
    CDC
    오블완
    prompt
    python
    Kafka
  • 최근 댓글

  • 최근 글

  • hELLO· Designed By정상우.v4.10.3
상쾌한기분
Prompt Engineering Guide: LLM Arguments
상단으로

티스토리툴바