Quark Quantized OCP FP8 Models
updated
amd/Llama-3.1-8B-Instruct-FP8-KV
8B • Updated
• 17.9k
• 6
amd/Llama-3.1-70B-Instruct-FP8-KV
71B • Updated
• 2.62k
• 5
amd/Llama-3.1-405B-Instruct-FP8-KV
406B • Updated
• 1.66k
• 5
amd/Mixtral-8x7B-Instruct-v0.1-FP8-KV
3B • Updated
• 3.07k
• 3
132B • Updated
• 11
amd/deepseek-moe-16b-chat-FP8-KV
16B • Updated
• 11
316B • Updated
• 9
• 1
amd/Mixtral-8x22B-Instruct-v0.1-FP8-KV
141B • Updated
• 1.25k
• 3
amd/c4ai-command-r-plus-FP8-KV
104B • Updated
• 39
1B • Updated
• 319
amd/Llama-3.2-1B-Instruct-FP8-KV
1B • Updated
• 1.14k
3B • Updated
amd/Llama-3.2-3B-Instruct-FP8-KV
3B • Updated
• 574
amd/Llama-3.2-11B-Vision-Instruct-FP8-KV
11B • Updated
• 621
• 1
amd/Llama-3.2-90B-Vision-Instruct-FP8-KV
89B • Updated
• 3
13B • Updated
• 1
132B • Updated
• 10
amd/Mistral-7B-v0.1-FP8-KV
7B • Updated
• 14
• 1
amd/Llama-3.3-70B-Instruct-FP8-KV
71B • Updated
• 15.7k
• 4
Updated
• 7.61k
• 2
amd/Llama-2-70b-chat-hf_FP8_MLPerf_V2
69B • Updated
• 6