引用:
Originally posted by 3D King
其實GFFX5900用的32bit浮點運算精準度是跟ATI用的24bit在畫面質素上是有分別的,至於分別是否很大就得隨着各人的觀感了,GFFX5900可以降到16bit而ATI可以降到12bit,這也是它們原先設計硬體時所規定的,當GFFX5900降到16bit時,畫質比ATI所用的24bit時較暗,而ATI降到12bit時,畫面基本上太暗到不能接受的地步了,所以結論如下:
1)ATI用的12bit浮點運算精準度:畫質完全不能接受(當然是跟24bit/32比較!)
2)GFFX5900用的16bit浮點運算精準度: 畫質上基本上可以接受,事實上DX8的 game也只是要求16bit,但微軟的DX9的要求是24bit以上,用16bit會比24bit畫面亮度較暗!
3) ATI R9800所用的24bit剛好滿足微軟對DX9最低24bit的要求,畫質基本上滿意的。
4) GFFX5900所用的32bit畫面質素最高,不論亮度和畫質精準度也超越了微軟在DX9最低的24bit的要求,可借用32bit對硬件要求極高,也可能拖垮硬件的效能,幸好擁有135百萬電精體的GFFX5900的能力也沒有白費,只要從新編寫適合DX9的complier,也可以在32bit的高質之下,也不會令效能下降太多!
(因此大家也可能明白為什麽ATI cheat得比較小的原因,因為如果ATI要cheat就必須降下12bit,但是這畫質真是連色盲的人也可看到,因此ATI只會在較快或轉角位的場景下才用12bit來瞞騙用家的眼睛,至於GFFX5900在cheat的時用16bit,基本上很多用家也不太感覺出來,因此比ATI cheat多一點,但現在各綱站也會capture再放大圖片去比較畫質,也逼使Nvidia在新driver包括所有benchmark轉用回32bit了)
|
老兄
請不要搞笑

那個畫面和精度「沒有」關係
DirectX9 和精度也沒有直接關係
精度夠不夠用
完全是看情形
你現在看到的遊戲都是用 8bit
你什麼時候覺得不能接受過
注意
THG 說的是 ATI 驅動問題
你可以去 trace 看看 ATI 在驅動上有沒有什麼 detection code 或刻意迴避某些東西
這部份是可以去找的
但用精度是走錯方向了
還有
trilinear filtering 的幫助是在距離拉近的時候
anisotropy 的幫助是在角度傾斜的時候
9800 沒有 8500 的 bilinear 困擾
還有
ATI 把精度降低做運算
不會比較快
沒注意到 HL2 的測試
開了HDR 後
速度和沒開前一樣嗎
還有
網路論壇的匿名性
可以讓人更不受拘束的發揮
享受純粹討論的感覺
但是
不代表可以只瞭解一點時
就大放厥詞而不用負責任
