Transformer八股 为什么在Transformer模型中使用Layer Normalization(Layer Norm)而不是Batch
背景 最近在大模型推理方面遇到了瓶颈,需要进一步优化性能,因此决定记录一下这方面的研究。 Tokens 压缩旨在减少语言模型处理的文本量,以提高效率和泛化能
huggingface 换源 1 export HF_ENDPOINT=https://hf-mirror.com 下载 1 2 3 4 5 6 7 8 9 10 nohup huggingface-cli download --resume-download Qwen/Qwen-72B-Chat-Int4 --local-dir ./Qwen-72B-Chat-Int4 > 72b.log & huggingface-cli download --resume-download Qwen/Qwen-14B --local-dir ./Qwen-14B huggingface-cli download --resume-download Qwen/Qwen2-7B-Instruct --local-dir ./Qwen-7B huggingface-cli download --resume-download Qwen/Qwen1.5-14B-Chat --local-dir ./Qwen1.5-14B 启动 vllm api 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
背景 需要用ai来实现提效。 1 2 3 4 5 6 7 8 9 10 11 【业务背景】针对运维开发中的业务问题引入LLM进行提效,实现自动化,智能化解决运维问题,面向
背景 最近需要用到这玩意儿,但是我目前只知道langchain等框架,对市场缺乏一个调研。 需要做一个技术选型。 实际上:agent,本质上就是一
背景 PPO(Proximal Policy Optimization)近端策略优化算法 它属于策略梯度方法的一种,旨在通过限制新策略和旧策略之间的差异来稳定训练过程。PPO通过引