News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
also von den werten kann man nicht wircklich auf die leistung schließen, wobei ich aber denke, dass diese über einer 5870 liegen wird.

ich hab eher angst vor dem Verbrauch. Auch bei 40nm fertigung wird der Verbrauch riesig sein! ganz zu schweigen von dem Abwärme, die man erstmal von dem Chip runterkriegen muss.

Leitung ist ja eine Sache, aber ein Heizkraftwerk solcher Art zu kaufen, find ich ein wenig übertrieben. Aber ist meine Meinung!

Hoffentlich wirds kein Klimakiller, bin selber nvidia fan (mittlerweile ;)) aber sowas würde ich dann nicht kaufen.
 
ECC, L2 cache... wenn ich mir die technischen specs lese, wird mir klar worauf nvidia hinaus will. der chip soll in erster linie kracher für GPGU computing werden, anders ist z.b. ECC nicht zu erklären, so etwas wird nur bei wissenschaftlichen/professionellen berechnungen gefordert.

das meiste geld wird dann vermutlich auch mit quadros und teslas verdient. consumer graphics wird zunehmend zum nebenprodukt.
 
vielleicht kommt noch eine GTX385x2 wer weiss
 
Birgt die Möglichkeit C-Code über die GPU auszuführen nicht auch die Gefahr neuer Sicherheitslücken für das System allgemein?

nV muss sich ein neues Standbein aufbauen. Und das versucht man gerade mit dem Fokus auf wissenschaftliche Berechnungen. Intel und AMD haben beide noch die eigenen CPUs mit im Paket, aber bei nV siehts in dieser Richtung eher mau aus. Also warum nicht für solche Berechnungen überlegene Architektur nicht noch etwas mehr darauf fokussieren. Das quasi Nebenprodukt wäre dann die Grafikleistung für Games.
 
Zuletzt bearbeitet von einem Moderator:
IchmagToast schrieb:
Ich denke es wird ein richtiges Monster :king:

Egal wie teuer, egal wieviel Verbrauch...hauptsache das Teil ist schnell.

Juhu geilomat. :D Freu mich auf die ersten Tests!

Marc_N schrieb:
Ich finde ja eher: Warum klingt das nur so wenig nach Grafikkarte? :confused_alt:

Weil die CUDA Technologie mehr auf dem Kasten hat als eine "normale" Grafikkarte, vielleicht klingt es für dich deswegen so komisch. ^^
 
Tut mir leid @NoiprocS

Da hat ja jemand mächtig auf den Tisch gehauen. Ich glaube Nvidia möchte Larrabee das Leben schwer machen. Auch gut so. Ich warte schon lange auf Nvideas Antwort und ich bin begeistert, krass.
 
Zuletzt bearbeitet:
The Reactor is coming:freaky:
 
Einfach nur WOW!
Die einzige Frage die nun bleibt ist: "Um wieviel % wird sie schneller als die HD 5870 sein?"
 
Birgt die Möglichkeit C-Code über die GPU auszuführen nicht auch die Gefahr neuer Sicherheitslücken für das System allgemein?
die möglichkeit jeden code auszuführen birgt sicherheitslücken mit sich
das besitzen eines pcs ist schon eine sicherheitslücke ;)

c-code kompilieren und ausführen ist das eine, auf alle x86 instruktionen zugreifen zu können ist das andere. aber sofern compiler den kompletten ANSI standard auf GPU befehle umsetzen kann, brauch man kein x86 mehr. jedes programm und alle verwendeten bibliotheken müssen dann eben mit diesem compiler neu kompiliert werden.
 
Zuletzt bearbeitet:
Leistung ist nicht alles,vorallem nicht, wenn das Teil heißer als ein ofen ist, mehr strom als ein plasma fernseher verbraucht, lauter ist als ein föhn und soviel kostet wie ein gebrauchter opel
 
Die Daten lesen sich ja fast wie die einer CPU...
Und der Name erinnert mich an Fermentation. Lecker.
 
Nvidia wird ati in der Pfeife rauchen wenn es um die Leistung geht,ati wird aber das bessere preis-leistungs Verhältnis haben.
 
wenn man die nackten Zahlen betrachtet und die jetzige Crunchingleistung der GT200 berücksichtigt, müsste der GT300 mindestens viermal schneller sein.

Da kann man sich ja dann selbst vorstellen wie dann wohl die Grafikleistung ausfällt.
 
Die Graka ist keine Comsumer Karte.
Demnach wird sie ordentlich was kosten und Nvidia möchte dort ATi angreifen. GPGPU usw..
Wahrscheinlich dann doch nur ein geshrinkter GT200 mit einer soliden merhleistung von etwa 50%, für die Comsumer.

@ God Cast 4x schneller? Was fürn Quatsch. Die Grafikleistung wird wohl eben gering ausfallen,d a die Karte nicht für Otto Normaluser zu haben ist, bzw die Karte gar nicht dafür geeignet ist. (zu teuer)
Wenn man sich das mal ansieht kann das unmöglich rentabel sein.
 
Zuletzt bearbeitet:
Naja ich bin ja nicht sooo euphorisch. Die Daten klingen zwar absolut phenomenal, ABER für ne GPGPU Karte und nicht fürs Zocken. Prinzipiell freut mich das, da ich nicht mehr viel zocke sondern eher in die GPGPU Richtung gehe, aber nV muss von etwas leben und von GPGPU alleine kann man das schlecht. Insofern bleibt wohl primär abzuwarten wie gut die Karte ihre Rechenleistung für Spiele nutzen kann.... bei mir weckt die Karte irgendwie gerade Erinerungen an die ersten frühen Gerüchte es gäbe einen GT300 UND einen G300 wovon der eine ein GPGPU Chip werden soll und der andere ein Spielechip. Ich bin auf alle Fälle gespannt auch wenn skeptisch im Hintergrund :)
 
casul schrieb:
Nvidia wird ati in der Pfeife rauchen wenn es um die Leistung geht,ati wird aber das bessere preis-leistungs Verhältnis haben.

P/L ja. aber ich kann mir nicht vorstellen das ATI bei einer 5870 und einer x2 versin bleibt, eine 5890kommt auch nóch. denke das ATI einen vorsprung hat und vielleicht auch was änliches auf dem markt bring. mal schaun
 
Tja da haben sich wohl einige oder fast alle daten bestätigt, wie zumeist falsche gerüchte habe ich schon länger nichtmehr gefunden.

Binn schon gespannt, wie sich dieses Monster dann verhalten wird aber ich denke Nvidia wird da bestimmt wieder ordentlich zur Kasse bitten.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben