UL Procyon AI Text Generation Benchmark:
ONNX Runtime – RTX 5080 – All
PHI 3.5 => 5358 / MISTRAL 7B => 5665 / LLAMA 3.1 => 4762 / LLAMA 2 => 5761
UL Procyon AI Image Generation Benchmark:
Diffusion 1.5 => 5480、1.5 Light => 61754、XL => 4783
接著RTX 5080搭配LM Studio,是一款本地端大型語言模型( LLM )的桌機應用程式。
選用Llama-3.1-8B模型,設定重點在於將右側GPU Offload參數調至最高;
由於CPU架構天生不擅長處理AI模型龐大的運算,若單靠9800X3D進行推論,文字生成速度會大幅下降。
因此必須將運算負載全數放至顯示卡,讓GPU發揮硬體運算優勢,以確保效能最大化。
指令輸入AI撰寫5000字長文,Context length設定76000與Q4_K_M量化環境下,16GB VRAM消耗達15GB;
若設定負載高於15GB,便會開始調用系統主記憶體,導致讀取與生成明顯變慢,顯見VRAM運用已相當接近上限。
RTX 5080在100%滿載運算時,核心溫度約62度。
運算速度直接檢視日誌下方兩項效能指標:
Prompt eval time(預處理速度):每秒處理3661.11個Tokens
Eval time(生成速度):每秒生成79.27個Tokens
字詞產出速度極快,遠超正常閱讀速度,視覺體驗順暢。
下載另一種Gemma-4-E4B模型,指令輸入AI撰寫10000字長文,Context length設定最高131072與Q4_K_M量化環境下使用狀態。
RTX 5080在92%負載運算時,VRAM使用7.2GB,核心溫度僅54度,散熱表現優異。
運算速度直接檢視日誌下方兩項效能指標:
Prompt eval time(預處理速度):每秒處理4170.34個Tokens
Eval time(生成速度):每秒生成114.76個Tokens
RTX 5080應對這兩種模型都具備相當不錯的運算效率與溫度控制,特別是Llama-3.1-8B Q4_K_M雖讓16GB VRAM達高負載邊緣但仍可穩定運行,屬於實用且高效的本地端AI硬體配置。
若有運行更大參數模型的需求,消費級市場只剩下最高階RTX 5090內建32GB VRAM能提供更寬裕的應用空間。
像是AORUS今年推出的RTX 5090 INFINITY 32G,除了硬體規格攻頂,也具備高辨識度的全新外型設計,提供金字塔頂端的玩家另一種選擇。
室溫約28度、濕度59%,FurMark 4K GPU燒機時GPU約71.3度,風扇約2365轉上下。
室溫約29.6度、濕度57%,同樣運行FurMark 4K GPU燒機時外部溫度狀態:
正面與側面區域,紅外線測溫最高點為左上角50.6度。
背面區域,紅外線測溫最高點為右側GPU核心位置約62度。
值得一提的是高負載時風扇運轉聲偏低頻與低噪音的表現。
本篇GIGABYTE RTX 5080 GAMING OC 16G遊戲與AI測試數據表格:
本篇主角GIGABYTE RTX 5080 GAMING OC具備多層次裝甲與咬花外觀、搭載風之力散熱系統,提供出色散熱、低頻且低噪音的高水準表現。
遊戲表現方面,透過NVIDIA最新DLSS 4.5技術加持,首批支援遊戲在4K環境下FPS增幅達26%至50%之多,
實質提升流暢度與畫質,加上對於秋季將上線的新一代DLSS 5,都是對於RTX 50系列用戶的一大利多。
至於本地端AI推論,實測Llama 3.1 8B與Gemma-4-E4B模型,Token生成極快且滿載時溫度不高;
不過客觀來看,16GB VRAM在處理中大型模型時易觸碰滿載極限,若需要更重度的AI推論,直上32GB VRAM的RTX 5090仍是最佳選擇。
整體而言,這款用料與散熱俱佳的GIGABYTE RTX 5080 GAMING OC,適合預算充裕、主攻4K高畫質遊戲並兼顧中輕度AI推論的玩家。
以上最新5080實測數據與心得,提供給對高階顯示卡有興趣的網友做為參考。