News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
Was ist das? Ein Supercomputer für den Heimbetreich, der den Weltuntergang vorhersagen soll?

Ich will eine Grafikkarte zum gamen, wenn ich mehr brauche denn hole ich mir die jeweilige spezifische Hardware dazu.

Also bis JETZT ist mir irgendwie ATI mit der 5870 lieber.

Von einer Grafikkarte erwarte ich, Performance in SPIELEN, keine überlaute Geräusche,

Beschleunigung bei Videobearbeitung & HD Filme schauen wäre noch nett, aber dieser ganze QUATSCH mit mit C++ usw. JA NE IS KLAR :freak:
 
@ Joda

Für Professionelle Anwendungen würde es sich sicherlich lohnen, mit 6GB Vram zu arbeiten ( Firmen, die sich auf Fotobearbeitung spezialisieren) aber für den normalen Gamer würden sicherlich 2-4 GB Vram allemal ausreichen. Zudem kann der GDDR5 viel höhere Taktarten ab( wie ATI es schon vorgemacht hat).
 
Affenkopp schrieb:
Ja was nun? Ich denke die Dinger kommen nun doch noch dieses Jahr, so hieß es doch gestern noch???

Die Leute verwechseln einfach die Karten, das ist das Problem.
Der Fermi wird noch dieses Jahr erscheinen (also der Chip der hier besprochen wird), ABER das ist mit Sicherheit NICHT die Karte die für uns Heimanwender ist, sondern es ist die Karte für den HPC Markt. Also professionelle Anwender die mit Supercomputern sachen wie Erdbeben, Klima, Börse, Chemie und und und berechnen. Diese Karten werden mehrere tausend Euro kosten.

Was die von die wahrscheinlich gemeinte Gamer Karte angeht (GT 300) die wird FRÜHESTENS im 1Q 2010 kommen, wahrscheinlich sind Ende Jänner Anfang Februar die ersten paar Stück an die Vorbesteller auf dem Weg und mitte/ende März sollte sie dann gro´flächig verfügbar sein. Das aber auch nur wenn nichts aber auch gar nichts mehr schief gehen sollte. Sonst kann es leicht noch bis Ende Frühling Anfang Sommer dauern bis wir was davon sehen. In dem Fall wird Nvidia dann sicherlich refreshes der alten GT200 rausbringen um nicht total den Anschluß zu verlieren. Also so ähnlich wie sie es schon bei 8800GTX=9800GTX=250GTS getan haben.
 
omfg will aber keine 2000 eus ausgeben xD wiel ich bin in der Bildbearbeitung xDD naja ma schaun was das ding kann
 
Allerdings muss die Karte auch die Leistung haben, um die 6GB Vram überhaupt zu nutzen. ( Es sind ja noch keine "wirklichen" leistungsdaten bekannt. Die 285GTX z.B nutzt die 2GB Vram überhaupt nicht bzw. es sind dadurch keine erheblichen Leistungssteigerungen aufgetreten.
 
War die Karte eigentlich in einem PC drin ,oder wurde die nur optisch gezeigt??

Weil ansonsten hätte man auch einfach ne GTX280 nehmen können und einen Lüfter mit Tesla Aufdruck durmherumpacken können und fertig.

Solange man keine Benchmarks sieht,ist das ganze doch eh völlig für die Füsse.

Im Grunde könnte ATI auch einen 5870 Karte hochhalten mit anderen Lüfter und die neue 6000er Serie vorstellen mit den ganzen geplanten Spezifikationen.

Käme auf selbiges raus.

Vor März wird das nichts mit G300 Karten. Dafür liest man zu oft etwas von "wenigen Monaten" bis lieferbar.
 
ĴФĐλ schrieb:
omfg will aber keine 2000 eus ausgeben xD wiel ich bin in der Bildbearbeitung xDD naja ma schaun was das ding kann

Musst du ja auch nicht, für dich ist die ja nicht gedacht! Für Bildbearbeitung ist man bei den Quadros gut aufgehoben, die gibt es von ~200€ (geschätzt, hab jetzt nicht nach geschaut) bis ~1500€.
 
Nvidia scheint sich ja ziemlich sicher zu sein, damit sind sie bestens gegen AMD/ATI und Intel im HPC Segment aufgestellt. AMD/ATI hat jetzt, wenn man den Gerüchten glauben mag, den Consumer Markt 6 Monate für sich. Ob sich das am Ende bezahlt macht, den Professionellen Markt so zu vernachlässigen, werden wir sehen.
Hat nicht Sony Pictures angekündigt zukünftig auf Nvidia zu setzen was HPC etc. angeht? Es werden sicherlich noch mehr Big Player folgen und da stecken jede Menge $$$$$$$$$$ drin.
Und 300 W beim Spitzenmodell, bei solch einer Leistung, ist doch nix. Ein Cluster aus normalen CPU's würde sicherlich mehr schlucken und viel viel mehr Platz verbrauchen um solch eine Rechenleistung zur Verfügung zu stellen.

Ich hoffe die rücken auch bald mit den Specs für die Consumer Karten raus, das interessiert mich mehr.
 
Bei bit-tech.net gibt es erste Board-Shots einer Tesla-Karte, die sich jedoch von den Dekstop-Varianten nicht wesentlich unterschieden dürfte.

bitte verbessern, dass es:

Bei bit-tech.net gibt es erste Board-Shots einer Tesla-Karte, die sich jedoch von den Desktop-Varianten nicht wesentlich unterscheiden dürfte.

ergibt :freaky:

Danke für die News ! :)
 
@NoD.sunrise:
in sachen DX11 hat man noch keinerlei erfahrung, während ATI das großteils schon seit den hd 2000 integriert hatte.
in sachen direct x ist nvidia mit der 8800gtx der 2900 nicht nur zeitlich vorraus gewesen ;) zwar hatte die 38x0 von ati dann dx10.1 auch offiziell, aber angebelich war das gros der vorraussetzungen für dx10.1 bereits im g80 schon erfüllt. ich denk nicht, dass ati hier einen erfahrungsvorsprung hat.

Tesselation ist nur in software umgesetzt

gibt es dazu eigentlich eine fundierte quelle? das haben hier schon viele geschrieben, aber woher kommt diese aussage?

mir scheint einiges der chipfläche für GPGPU drauf zu gehen

in dem punkt hast du ganz sicher recht. ich denke, dass über kurz oder lang eine art g92-ableger des g300 ohne diesen ganzen "ballast" kommen muss, um im mittleren preissegment was anbieten zu können.
 
feldwebel-Chief schrieb:
Er hat nur den 8Pin hinten gesehn und nicht noch den 6Pin oben und somit liegt der max verbrauch bei ~ 226-300Watt

Nein, ich hab den 6Pin nicht übersehen, bei mein Beitrag steht es ja noch 8+6Pin, ich hab nur vergessen die eigene 75 Watt aus der PCI-Express mit zu zählen :lol:
 
AMD hat Eyefinity. 6 Displays mit einer Karte wird auch seinen Markt finden ;)

Überhaupt klingt das natürlich alles ganz toll, mit dramatisch verbesserter Double-Precision-Leistung und allem, allerdings "im optimalen Fall". Im optimalen Fall liefert eine HD 5000 auch fast 3 TFlop/s ;)

Auch das Fehlen jeglicher Erwähnung von TMUs oder ROPs deutet darauf hin, dass es sich hierbei um ein reines Tesla-Produkt für teuer Geld handelt, auf dem sich garnicht spielen lässt. Kommando Ball flach, denke ich.
 
@riDDi nicht nur das sondern es war auch klar das sich Nvidia so verstärkt um seinen Teslasektor kümmert da die 4870x2 in Sachen Geschwindigkeit und Preis ihren Produkten gefährlich wurde.
ATis Karten sind und waren bis jetzt (GT300 ist noch nicht raus) die schnellsten Karten für Softwareberechnungen. In spielen waren sie trotz alledem der Nvidiakonkurrenz nicht überlegen, also sagen die Werte eigentlich sehr wenig aus, außer das sie tolles Marketing betreiben..
 
@riDDi: die tflop/s sind wohl auch eher nebensächlich, da sie über die spieleleistung nicht wirklich was aussagen (siehe 4890 vs. gtx285). die vorstellung war zwar primär auf tesla ausgerichtet, aber die daten der gpu dürften wohl dem desktop-derivat entsprechen, ebenso wie ja auch bei g80 und g200, die zum vergleich rangezogen wurden. ich denke nicht, dass nvidia hier auf getrennte produkte umschwenkt, weil das doppelter entwicklungsaufwandt und höhere produktionskosten durch getrennte fertigungen bedeuten würde.
ausschließen kann mans allerdings auch nicht.
 
Hallo zusammen,

jedenfalls scheinen nahezu alle Angaben korrekt zu sein, welche vorab von den üblichen Auguren präsentiert wurden.

Und so wie es aussieht, wird Nvidia nicht dieses Jahr mit dem G300 zu Rande kommen. Darauf weist nicht nur der Beitrag auf www.Heise.de hin, hier der Link:

http://www.heise.de/newsticker/GTC-Nvidia-Chef-zeigt-erste-Fermi-Grafikkarte-Update--/meldung/146166

sondern auch ein entsprechender Bericht auf www.Golem.de:

http://www.golem.de/0909/70179.html

in welchem sogar davon die Rede ist, daß ATI ca. ein halbes Jahr Vorsprung hat. Da kann man schon verschmerzen, daß die Fermi-GPU schneller sein wird, als die Radeon der 5000er Serie. Zumal in einem halben Jahr ATI sicher einen Refresh bringen wird und die 5000er GPU hat noch Potenzial nach oben so wie es aussieht.

Bedenklich für mich ist der offensichtlich Reale Stromverbrauch von tatsächlich bis zu 300 Watt, bei den High-End Modellen des Neuen Nvidia-Chips.

Irgendwo hört es auch auf wie ich finde. Das ist für mich mehr als daneben und ich frage mich ernsthaft, ob die bei Nvidia überhaupt noch Nah am Kunden sind!

So long....
 
Kann sich jemand an die ersten veröfentlichten Specs der 8800GTX, vor über 3 Jahren, errinern? Ich glaube da kommt wieder ein ähnlicher Hammer. Wenn nicht sogar ein grösserer.
Hypemodus ON!
Der Leistungssprung bzw. Innovationssprung vom G70 auf G80 ist gerade zu winzig im Vergleich mit GT200 auf Fermi. :eek:

Die flexiblen 512 Cuda Cores werden die Gamingleistung extrem steigern, macht euch da mal keine Sorgen. Flexibler, effizienter, schneller... Besser gehts nicht. (glaub das immer noch nicht, ist das wirklich war):eek:

Das Ding ist sowas von gekauft!
 
Zuletzt bearbeitet:
Es wird vermutlich immer Kunden geben, denen der stromverbrauch egal ist und nur die Performance zählt. Außerdem könnte man so sein zimmer gleich mit heizen;) xD
 
Komm mal wieder auf den Teppich, Kasmo. :D Was Du da gesehen hast, sind nur Specs, keine Benchmarks, keine laufende Karte, nichts... und wie es ausschaut, ging es hier nicht um G300, sondern GT300, also die reine Tesla-Variante. Vor R600 hatten die ATi-Fanboys auch Pipi in den Augen... und bei Erscheinen dann tatsächlich auch, aber da aus anderen Gründen... Wie kann man sich im Vorfeld nur so verrückt machen und an ein paar Specs so aufgeilen? :D

G300 ist noch in weiter Ferne, fürchte ich. Ich rechne mit Refresh-Chips des G200b in 40nm mit DX 10.1 zu Weihnachten und VIELLEICHT der Tesla-Karte für den professionellen Markt in einem ähnlichen Zeitraum.
 
Zuletzt bearbeitet:
@ Kasmopaya

Da gebe ich dir recht, gekauft ist es auch jetzt schon für mich ;)

PS: ich hoffe es wird den SLI support weiterhin geben:) Dann wandern 2 von den Dingern in meinen Rechner xD
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben