Stars
《How to Scale Your Model》中文翻译项目 - 智能技术文档翻译工具。专为大语言模型扩展技术书籍设计,突破长文档翻译瓶颈,完美保留数学公式、代码块格式。采用占位符机制+分层翻译策略,基于Gemini API提供高质量翻译。Python+crawl4ai技术栈,支持批量处理和增量更新。
Achieve state of the art inference performance with modern accelerators on Kubernetes
本项目旨在分享大模型相关技术原理以及实战经验(大模型工程化、大模型应用落地)
LightLLM is a Python-based LLM (Large Language Model) inference and serving framework, notable for its lightweight design, easy scalability, and high-speed performance.
fastllm是后端无依赖的高性能大模型推理库。同时支持张量并行推理稠密模型和混合模式推理MOE模型,任意10G以上显卡即可推理满血DeepSeek。双路9004/9005服务器+单显卡部署DeepSeek满血满精度原版模型,单并发20tps;INT4量化模型单并发30tps,多并发可达60+。
校招、秋招、春招、实习好项目!带你从零实现一个高性能的深度学习推理库,支持大模型 llama2 、Unet、Yolov5、Resnet等模型的推理。Implement a high-performance deep learning inference library step by step
博客配套视频链接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看 配套 github 链接:https://github.com/nickchen121/Pre-training-language-model 配套博客链接:https://www.cnblogs.com/nickchen121/p/1…
RAGFlow is a leading open-source Retrieval-Augmented Generation (RAG) engine that fuses cutting-edge RAG with Agent capabilities to create a superior context layer for LLMs
Code for loralib, an implementation of "LoRA: Low-Rank Adaptation of Large Language Models"
基于Qwen2.5模型、使用DISC-Law-SFT-Pair数据集微调的法律大模型
🚀🚀 「大模型」2小时完全从0训练26M的小参数GPT!🌏 Train a 26M-parameter GPT from scratch in just 2h!
这是一个从头训练大语言模型的项目,包括预训练、微调和直接偏好优化,模型拥有1B参数,支持中英文。
Transforms complex documents like PDFs into LLM-ready markdown/JSON for your Agentic workflows.
小红书笔记 | 评论爬虫、抖音视频 | 评论爬虫、快手视频 | 评论爬虫、B 站视频 | 评论爬虫、微博帖子 | 评论爬虫、百度贴吧帖子 | 百度贴吧评论回复爬虫 | 知乎问答文章|评论爬虫
llama3 implementation one matrix multiplication at a time
Transformer的完整实现。详细构建Encoder、Decoder、Self-attention。以实际例子进行展示,有完整的输入、训练、预测过程。可用于学习理解self-attention和Transformer
AI 基础知识 - GPU 架构、CUDA 编程、大模型基础及AI Agent 相关知识
A high-throughput and memory-efficient inference and serving engine for LLMs