引用:
作者ggvillage
還好阿,不覺得需要多強大的電腦就可以辦到,才400-500MB而已
處理一次也才半小時,很快呀。
稍微說一下以前做的論文題目所處理的資料,其中一個步驟是:
有4種屬性,每個屬性有10個data set,每一個data set是1000*610的二維陣列
每一個陣列元素裡存放的是-1 到 1 之間,小數點到第6位的值。
data set中做一次任兩列隨機交換就計算出一個值,做一萬次
這個步驟當時用研究室的電腦花一天的時間就跑完
研究室的電腦是Acer的套裝電腦,詳細規格有點忘了...
記得CPU是Intel Pentium D 805
主機板是Acer的合板,絕對是945,或更之前的產品
1G RAM、Seaget 160G一顆
所以幾乎可以說,樓主要的配備去現在市面上隨便搞一台都能勝任
|
這程式和我以前在玩的演算法很像, 只是我寫的是依收斂函數來做的判斷, 所以根本不知道會做幾次
那時只是小小的五萬筆資料就讓當時實驗室裡最快的工作站跑到快爆表, RAM吃到快一GB(全部也只裝那1GB, 那時的PC了不起裝個64MB就很讓人羨慕了...), 跑了一個禮拜才跑完.
不過後來程式重新改寫......時間縮成一天半就結束. 可見程式架構和寫法真的影響效率很大.