Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
also von den werten kann man nicht wircklich auf die leistung schließen, wobei ich aber denke, dass diese über einer 5870 liegen wird.
ich hab eher angst vor dem Verbrauch. Auch bei 40nm fertigung wird der Verbrauch riesig sein! ganz zu schweigen von dem Abwärme, die man erstmal von dem Chip runterkriegen muss.
Leitung ist ja eine Sache, aber ein Heizkraftwerk solcher Art zu kaufen, find ich ein wenig übertrieben. Aber ist meine Meinung!
Hoffentlich wirds kein Klimakiller, bin selber nvidia fan (mittlerweile ) aber sowas würde ich dann nicht kaufen.
ECC, L2 cache... wenn ich mir die technischen specs lese, wird mir klar worauf nvidia hinaus will. der chip soll in erster linie kracher für GPGU computing werden, anders ist z.b. ECC nicht zu erklären, so etwas wird nur bei wissenschaftlichen/professionellen berechnungen gefordert.
das meiste geld wird dann vermutlich auch mit quadros und teslas verdient. consumer graphics wird zunehmend zum nebenprodukt.
Birgt die Möglichkeit C-Code über die GPU auszuführen nicht auch die Gefahr neuer Sicherheitslücken für das System allgemein?
nV muss sich ein neues Standbein aufbauen. Und das versucht man gerade mit dem Fokus auf wissenschaftliche Berechnungen. Intel und AMD haben beide noch die eigenen CPUs mit im Paket, aber bei nV siehts in dieser Richtung eher mau aus. Also warum nicht für solche Berechnungen überlegene Architektur nicht noch etwas mehr darauf fokussieren. Das quasi Nebenprodukt wäre dann die Grafikleistung für Games.
Da hat ja jemand mächtig auf den Tisch gehauen. Ich glaube Nvidia möchte Larrabee das Leben schwer machen. Auch gut so. Ich warte schon lange auf Nvideas Antwort und ich bin begeistert, krass.
die möglichkeit jeden code auszuführen birgt sicherheitslücken mit sich
das besitzen eines pcs ist schon eine sicherheitslücke
c-code kompilieren und ausführen ist das eine, auf alle x86 instruktionen zugreifen zu können ist das andere. aber sofern compiler den kompletten ANSI standard auf GPU befehle umsetzen kann, brauch man kein x86 mehr. jedes programm und alle verwendeten bibliotheken müssen dann eben mit diesem compiler neu kompiliert werden.
Leistung ist nicht alles,vorallem nicht, wenn das Teil heißer als ein ofen ist, mehr strom als ein plasma fernseher verbraucht, lauter ist als ein föhn und soviel kostet wie ein gebrauchter opel
Die Graka ist keine Comsumer Karte.
Demnach wird sie ordentlich was kosten und Nvidia möchte dort ATi angreifen. GPGPU usw..
Wahrscheinlich dann doch nur ein geshrinkter GT200 mit einer soliden merhleistung von etwa 50%, für die Comsumer.
@ God Cast 4x schneller? Was fürn Quatsch. Die Grafikleistung wird wohl eben gering ausfallen,d a die Karte nicht für Otto Normaluser zu haben ist, bzw die Karte gar nicht dafür geeignet ist. (zu teuer)
Wenn man sich das mal ansieht kann das unmöglich rentabel sein.
Naja ich bin ja nicht sooo euphorisch. Die Daten klingen zwar absolut phenomenal, ABER für ne GPGPU Karte und nicht fürs Zocken. Prinzipiell freut mich das, da ich nicht mehr viel zocke sondern eher in die GPGPU Richtung gehe, aber nV muss von etwas leben und von GPGPU alleine kann man das schlecht. Insofern bleibt wohl primär abzuwarten wie gut die Karte ihre Rechenleistung für Spiele nutzen kann.... bei mir weckt die Karte irgendwie gerade Erinerungen an die ersten frühen Gerüchte es gäbe einen GT300 UND einen G300 wovon der eine ein GPGPU Chip werden soll und der andere ein Spielechip. Ich bin auf alle Fälle gespannt auch wenn skeptisch im Hintergrund
P/L ja. aber ich kann mir nicht vorstellen das ATI bei einer 5870 und einer x2 versin bleibt, eine 5890kommt auch nóch. denke das ATI einen vorsprung hat und vielleicht auch was änliches auf dem markt bring. mal schaun