綜上來看,內存和帶寬是限制證明生成的主要瓶頸。對于顯卡來說,這里的內存指的是顯存,并不是主板上的內存,主板上的內存主要是參與CPU的計算。當然目前有些芯片技術可以打通主板上的內存和顯存,讓內存為顯存計算來用。
按照官方的設想和規(guī)劃未來在Aleo上每天的交易量都是上億美金的規(guī)模,在這樣大數(shù)據量的要求下,每時每刻都有證明需要被委托出去在極短的時間內完成證明的生產,不可能指望顯卡能解決這個問題。就像AI大模型訓練一樣,早期數(shù)據量和參數(shù)少的情況下可以用消費級顯卡,但是現(xiàn)在更多的都是為AI訓練設計的專用芯片和機器。
為了打破英偉達一家獨大的局面,前任全球芯片老大英特爾和多年老對手AMD對標CUDA都分別推出了OneAPI和ROCm,Linux基金會更是聯(lián)合英特爾、谷歌、高通、ARM、三星等公司聯(lián)合成立了民間號稱“反CUDA聯(lián)盟”的UXL基金會,以開發(fā)全新的開源軟件套件,讓AI開發(fā)者能夠在基金會成員的任何芯片上進行編程,試圖讓其取代CUDA,成為AI開發(fā)者的開發(fā)平臺。
早在2021年,英偉達就曾公開表示過“禁止使用轉換層在其他硬件平臺上運行基于CUDA的軟件”,2024年3月,英偉達更是將其升級為“CUDA禁令”,直接添加在了CUDA的終用戶許可協(xié)議中,已禁止用轉譯層在其他GPU上運行CUDA軟件