Senior Member
加入日期: Feb 2015
文章: 1,434
|
50系列最快明年底吧
目前台積電的先進製程 都是滿載的 連美積電工廠還沒蓋好.訂單早就排滿滿 年底2奈米工廠蓋好 預定2025年量產.研發技術進展順利 2奈米首批產能 已先後獲得蘋果、英特爾等客戶 會釋放一批3.4奈米的產能出來 台積電才有多的產量
__________________
復製貼上真好用 什麼叫認知作戰? 就是他們讓你以為只是因為政治立場不同在爭執 但核心的部分是他們想掩蓋他們的真實社會面 只要吵就會模糊了焦點 ................................ 看看板上有多少五毛 |
|||||||
2024-04-03, 08:58 AM
#81
|
Elite Member
加入日期: Mar 2001 您的住址: Rivia
文章: 6,968
|
現在不太可能發生那種一二十年前
普通遊戲卡軟改繪圖卡的事情發生了 因為現在閹掉 AI 加速性能 遊戲加速性能也會一起掉 除非你是生財工具,不然買 4090 後 等下代出來你會感到後悔的機率應該不低 比較便宜的做法是買兩張 3060 12GB 4090 能跑的它都能跑,速度慢一點而已
__________________
Folding@home with GPGPU集中討論串 Unix Review: ArchLinux●Sabayon●OpenSolaris 2008.5●Ubuntu 8.10 AVs Review: GDTC●AntiVir SS●ESS●KIS 09●NIS 09●Norton 360 V3 I Always Get What I Want. |
||
2024-04-03, 09:01 AM
#82
|
Master Member
加入日期: May 2021
文章: 1,567
|
引用:
你有沒有想過一種可能 那就是50系列沿用4N製程 |
|
2024-04-03, 09:03 AM
#83
|
Golden Member
加入日期: Jan 2002
文章: 3,993
|
引用:
兩張3060 的耗電會不會比4090來得高?? 如果耗電低一點,速度慢一點,那就可以接受了...
__________________
您想買新硬碟嗎? 購買前請務必參考這篇文章,是我的實際經驗 還想讓統一賺你的錢嗎?統一集團成員(能見度高的): 星巴克、家樂福、7-11、無印良品、黑貓宅急便、聖娜多堡、阪急百貨、 康是美、博客來、夢時代、Mister Donut 、Cold Stone 、龜甲萬、 維力33%股權、光泉31%股權、Smile速邁樂、紅心辣椒、台北轉運站(統一企業BOT) 統一LP33膠囊有環保署早已列管的一級管制品: DNOP塑化劑 |
|
2024-04-03, 10:20 AM
#84
|
Master Member
加入日期: May 2021
文章: 1,567
|
引用:
3060一張170W,兩張340W 4090則是450W,不過跑遊戲一般是落在320~380W居多 其他用途我不確定 但問題在於2張3060 12G無法疊加VRAM變成24G 所以無法跟24 VRAM的卡相比 |
|
2024-04-03, 11:02 AM
#85
|
Elite Member
加入日期: Mar 2001 您的住址: Rivia
文章: 6,968
|
引用:
如果你是要跑 LLM 的話不一定要換顯卡 用 CPU 跑也行 前幾天更新的 llamafile 增加了不少 CPU 推理性能 https://github.com/Mozilla-Ocho/llamafile 這次還支援 AVX512,讓 ZEN4 處理器性能提升了十倍 引用:
VRAM 本來就可以疊加 你甚至可以 AMD + NVIDIA 的顯卡疊加一起跑都沒問題 也有人因為要玩遊戲,它是 4070 + 3060 12G = 24GB 一樣也是 24GB
__________________
Folding@home with GPGPU集中討論串 Unix Review: ArchLinux●Sabayon●OpenSolaris 2008.5●Ubuntu 8.10 AVs Review: GDTC●AntiVir SS●ESS●KIS 09●NIS 09●Norton 360 V3 I Always Get What I Want. |
||
2024-04-03, 11:27 AM
#86
|
Junior Member
加入日期: Apr 2003
文章: 730
|
引用:
遊戲可能沒辦法,但很多開源模型都有支援多卡 假設GPU晶片一樣,兩張12G VRAM疊加成24G,不會像單張24G VRAM這麼好用,推理速度也比單張慢 https://github.com/THUDM/ChatGLM3 "多卡部署 如果你有多张 GPU,但是每张 GPU 的显存大小都不足以容纳完整的模型,那么可以将模型切分在多张GPU上。首先安装 accelerate: pip install accelerate,然后即可正常加载模型。" 此文章於 2024-04-03 07:15 PM 被 space 編輯. |
|
2024-04-03, 05:53 PM
#87
|
Power Member
加入日期: Sep 2001 您的住址: 台中
文章: 649
|
引用:
4系列開始就沒有SLI了,4070+3060怎疊加? A+N疊加? 這已突破我所知,能否說明下。
__________________
SD1.5 https://i.imgur.com/Vkk8Ofj.jpeg[/IMG]SD1.7 |
|
2024-04-03, 06:34 PM
#88
|
Golden Member
加入日期: Apr 2017 您的住址: 陣亡者的靈堂
文章: 3,127
|
引用:
https://www.ptt.cc/bbs/PC_Shopping/...9198.A.828.html 引用:
AMD Mantle新技術將會支持多顯示卡記憶體疊加 2015-02-09 https://hk.news.yahoo.com/amd-mantle-085057097.html 效果不俗 – AMD Fury X 與 NVIDIA 混合交火 DX12 測試成績 2015-10-27 https://api.hksilicon.com/articles/923141 沒這樣玩過 VRAM疊加不是新技術 不清楚技術門檻
__________________
此文章於 2024-04-03 07:08 PM 被 healthfirst. 編輯. |
||
2024-04-03, 07:06 PM
#89
|
Elite Member
加入日期: Mar 2001 您的住址: Rivia
文章: 6,968
|
引用:
這不是 SLI 也跟 SLI 無關 現在比較流行的一個可以參考 pytorch https://github.com/pytorch/pytorch 這就靠底層 library 實現的 CPU/GPU 協同加速 前面說的 Accelerate 就是 pytorch 的前端 簡化更多開發者需要在 pytorch 上的工作 而多 GPU 及記憶體疊加這功能大約 2021 的時候已經很多專案開始用了 沒這功能,很多 LLM 的訓練、量化、微調等工作 你只能買更多張 24GB 的顯卡或記租憶體更多的運算卡才能完成
__________________
Folding@home with GPGPU集中討論串 Unix Review: ArchLinux●Sabayon●OpenSolaris 2008.5●Ubuntu 8.10 AVs Review: GDTC●AntiVir SS●ESS●KIS 09●NIS 09●Norton 360 V3 I Always Get What I Want. |
|
2024-04-03, 07:09 PM
#90
|