LLM

LLM

Sắp xếp theo: Bài viết mới nhất
Avatar

[LLM 101] Tìm hiểu RLHF trong InstructGPT và Llama 2

24 0 0
1
Avatar

Giới thiệu về Self prompting, mô hình self prompting trong các task Zero-Shot Open-Domain QA

55 0 0
1
Avatar

Tìm hiểu về AI Agents / LLM Agents (Phần 1)

81 1 0
2
Avatar

Sơ lược về Azure OpenAI Realtime và cách sử dụng nó

55 1 0
2
Avatar

[LLM 101 - Paper reading] Tìm hiểu khả năng suy luận "K-level" trong mô hình ngôn ngữ lớn

36 0 0
2
Avatar

Một vài câu chuyện xung quanh phát triển Chatbot (Phần 1)

122 1 1
  • Avatar
4
Avatar

[LLM - Paper reading] RLAIF: Scaling Reinforcement Learning from Human Feedback with AI Feedback

64 0 0
2
Avatar

[LLM 101] Thử chạy Llama 3 trên Laptop cá nhân

214 2 0
2
Avatar

[LLM 101] Cài đặt kĩ thuật RAG sử dụng Hybrid Search, Embed Caching và Mistral-AI

152 0 0
3
Avatar

[LLM 101] Thử tạo bộ nhớ ngắn hạn cho LLM Agent sử dụng LangChain

107 1 0
3
Avatar

[LLM] Sử dụng RAGAs và LlamaIndex để đánh giá chất lượng RAG

148 0 0
2
Avatar

[LLM 101] Thảo luận các vấn đề về Finetune Large Language Models

313 1 1
  • Avatar
3
Avatar

Tối ưu hóa RAG cho dữ liệu có cấu trúc với Text2SQL

177 1 3
  • Avatar
  • Avatar
3
Avatar

[LLM 101 - Paper reading] SaulLM-7B: A pioneering Large Language Model for Law

174 0 0
2
Avatar

Sử dụng HyDE để cải thiện hiệu năng RAG cho LLM

399 2 3
  • Avatar
  • Avatar
2
Avatar

[LLM 101] Thử cài đặt Decomposed Low-Rank Adaptation (DoRA)

102 0 0
1
Avatar

Nâng cao kỹ năng prompting đi thôi!!!

378 1 0
6
Avatar

[LLM 101 - Paper reading] Large Language Models are Superpositions of All Characters: Attaining Arbitrary Role-play via Self-Alignment

96 0 0
3
Avatar

[LLM 101 - Paper reading] Tìm hiểu Corrective Retrieval Augmented Generation (CRAG)

206 0 0
3
Avatar

LLM 101 | FlashAttention: Fast and Memory-Efficient Exact Attention with IO-Awareness

72 0 0
2
Viblo
Hãy đăng ký một tài khoản Viblo để nhận được nhiều bài viết thú vị hơn.
Đăng kí