News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
GunBot schrieb:
Wenn es dir das Geld wert ist, und du nur frames jagst dann vielleicht schon.
Aber ich konnte mit meiner 8800GTX fast alles auf 1680x1050 mit hohen Details spielen, ob ich dann 30 oder 36 FPS hab is mir da egal.

Die 8800GTX und die Radeon 9800 waren wohl bis dato die einzigen Ausnahmen. außerdem ist ne 5870 schon doppelt so schnell wie die 8800gtx

Wenn man die Teile selbst zahlen muss überlegt man dann halt, aber wenn Papi zahlt kann ichs verstehen...

stell dir vor, es soll auch leute geben, dir ihr geld selbst verdienen und sich jährlich neue Karten kaufen, weil sie immer alles auf bestmöglicher Qualität spielen wollen.

Die Ansprüche sind nun mal verschieden wie man sieht.


gruß
 
Zuletzt bearbeitet:
Lübke schrieb:
die wird nach meinem bauchgefühl in der spitzen-version wohl an die 500,- € kosten ;)
allerdings wird es auch eine reihe von sehr leistungsstarken versionen mit teil-deaktivierten/defekten einheiten geben, die deutlich günstiger werden und vermutlich mit der 5870 schritt halten können (sprich gtx360/gtx375).
eben wies schon bei der g200 war, nur alles n hunni teurer ;)

Würde mich nicht wundern der Preis.
Hab damals eine der ersten 8800GTX erwischt um 650€
 
ist auch nur ne frage der ansprüche. wer mit weniger leben kann und keine lust hat, ständig am system rumzuschrauben, der kann auch lange zeit mit einer karte auskommen. dafür hat er am anfang eine tolle highendkarte, am ende aber was veraltetes. wer häufiger wechselt muss halt immer mit mittelklasse leben, hat diese dafür aber beständig.
hat beides was für sich...

@chappy086: war imho kein schlechter kauf ;) bis zum erscheinen der 4850 vergingen ja doch einige tage... :D
allerdings waren das zu der zeit normale preise. x1950xtx und 2900xt lagen ja auch bei 550,- €. da hat sich der aufpreis imho schon gelohnt^^
ati hat aber mit der hd4k neue preismaßstäbe gesetzt. darum sind jetzt alle so verwöhnt und empfinden die 5870 schon mit lächerlichen 350,- € als teuer ;)
 
Zuletzt bearbeitet:
Ralf T schrieb:
Er wird wahrscheinlich max. 20% schneller sein als eine 5870, dafür wird der so um die 400 - 450€ kosten, mehr Strom benötigen im idle und unter load und von Features wie Eyefinity träumt man bei Nvidia.

Woher willst du das alles wissen? Dass die Tesla Karte, die auf der GPU Technology Conference vorgestellt wurde unter Last mehr Strom verbrauchen wird, sieht man ja. Aber der Rest?

Man darf gespannt sein, und ich hoffe, dass für Spiele recht unnötige Dinge (jedenfalls denke ich das) wie der Cache, nicht in dem Umfang enthlaten sind, nicht dass das noch bremst -.-
 
88er und das einige Jahre vorher von ATI gelegte High-Tech Ei 9700 Pro sind wie die TNT oder Vodoo Kultkarten. Mal sehen ob die 300er das Zeug dazu hat. Ein Rekord dürfte, den Stromanschlüssen zu urteilen, aber bereits im Wattbereich zu finden sein.
 
Das bedeutet ich müsste mal schnell nen größeren Monitor organisieren :). Das Problem ist, dass Leistungssteigerung und höherer Verbrauch so eng beieinander liegen und Stromkosten leider nicht günstiger werden. Leistung ist eigentlich, sofern im guten Mittelfeld, für mich egal, aber DX 11 - da bin ich scharf drauf....
 
Voyager10 schrieb:

Beim Gamer verdiehnt Nvidia durch den Preisdruck nichtsmehr .

Nvidia rechnet mit Fermi in den Bereichen Umsätze von:
Geologieberechnungen : 300Mill.
Supercomputer: 200Mill.
Universitäten: 150Mill.
Verteidigung: 250Mill.
Finanzen: 230Mill.

Ahja - das wäre dann wohl eine Steigerung des Tesla-Marktes um einen Faktor von hmmm, 11300% ? (10 Mio => 1130 Mio) Ob das mal realistisch ist. (Die vorgestellte Fermi-Reihe und die technischen Daten derselben gehören zum Nachfolgerprodukt der Profi-Tesla-Karten und NICHT der Desktop Karten zu welchen sich nV noch ausschweigt)

Laut Anandtechs interview mit nVidia entspricht deren aktueller Anteil an Teslaprodukten ~10 Mio bei einem Gesamtumsatz von ~1000 Mio.
http://www.anandtech.com/video/showdoc.aspx?i=3651&p=8

"Last quarter the Tesla business unit made $10M. That's not a whole lot of money for a company that, at its peak, grossed $1B in a single quarter. NVIDIA believes that Fermi is when that will all change."

So langsam vermute ich dass nV tatsächlich erstmal eine refresh Aktion der G200er zum Jahreswechsel bringt um an die HD5k nicht den anschluss zu verlieren. Im Q1/2010 kommen dann wohl erstmal die Tesla-Nachfolger und so nach und nach dann der Rest.

Also bis dahin würde ich nicht warten, wenn ich jetzt ne Grafikkarte haben möchte um mir eine alte zu ersetzen die für die nächste Zeit(1-2 Jahre) reicht. Dann kann ich mich in 1-2 Jahren wieder für das eine oder andere entscheiden. Teuer sind die HD5ks ja nicht unbedingt.

Und dieser von einigen hochbeschworene Wechsel zu Raytracing etc. Technologien wird sich wie der Wechsel von DX9 auf 10/11 auch nicht über Nacht oder über 1 Jahr oder 2 erziehen sondern 3-5 Jahre dauern, bis dahin gibts die HD8k und GF5x serien - da kann man dann in aller Ruhe vergleichen wer den Wechsel besser hingekriegt hat.
 
@MAhaX: dennoch werden wohl einige spieler enttäsucht sein, wie wenig von den ganzen tollen features ihnen zu gute kommen werden ;)
vieles ist für gpgpu gedacht und für professionelle anwendungsgebiete. und raytracing-fähigkeiten werden in naher zukunft noch keine wirklichen vorteile in den benchmarkpacours bringen. im konventionellen spiele-bereich wird die karte vermutlich nicht sehr weit vor der hd5k liegen... aber teuer und groß dürfte sie dennoch werden...
 
Wuhu bin ich schon aufgeregt auf die ersten Benchs dazu :)
Das Kühlerdesign wird also größtenteils mit den Desktop GT300er übereinstimmen?
 
Was hier anscheinend nieman verstehen will, ist, dass die Karten nicht für Gaming gedacht sind.
Zum GT300 schweigst sich Nvidia unverständlicherweise immernoch völlig aus.
 
Da hat sich nVidia aber aus der Reserve locken lassen. Es ist ja noch nicht mal funktionierendes Silikon zu sehen. Da wird das mit Karten im Endmarkt dieses Jahr nichts mehr. Zumal dieses Design auch nur High-End abdeckt. Wenn nVidia da nicht noch was in der Hand hat - und zwar etwas mehr als die 10.1-Designs in 40nm für den vornehmlich mobilen Sektor - wird man AMD ein ganz schön großes Kuchenstück überlassen.

Der Chip entspricht größenteils der Erwartung. Die Mehrleistung ist bestenfalls in Relation zur Chipgröße und Preis. Im schlimmsten Fall drücken über Shader generierte Features noch die real-world-performance - also zumindest in 11er Spielen.
 
myoizo schrieb:
wär nicht schlecht, wenn crysis @max endlich mal flüssig laufen würde. meine gtx295 ruckelt selbst ohne aa/af (@2560x1600, very high) fröhlich vor sich hin ^^

Ist aber auch logisch das mit so einer schlechten Karte (Verhältniss GPU/RAM) Crysis fröhlich das ruckeln anfängt! Und gerade bei Crysis kommt ja noch dazu das es nur Spaß macht wenn die Shader geglättet werden und das wird in schönen Auflösungen wohl erst die nächste GPU Generation (die nach Cypress/Fermi) schaffen.

GunBot schrieb:
Wenn es dir das Geld wert ist, und du nur frames jagst dann vielleicht schon.
Aber ich konnte mit meiner 8800GTX fast alles auf 1680x1050 mit hohen Details spielen, ob ich dann 30 oder 36 FPS hab is mir da egal.
Wenn man die Teile selbst zahlen muss überlegt man dann halt, aber wenn Papi zahlt kann ichs verstehen...

Gerade wenn man NICHT nur Frames jagt sollte man doch öfter wechseln!
Als Beispiel mal die neue ATI, hätte ich die alte 4870 X2 hätte ich sicherlich noch bei den meisten games tolle FPS, aber ich hätte kein DX11, Powerplay, SSAA, AF .................
Die einzige Generation die man lange halten konnte war imho die der 1900XTX oder der 8800. Aber auch nur weil DX 10 (im falle der ATI) eh egal war und sich überhaupt nicht durchgesetzt hat aufgrund von Vista und weil damit seit DX9 zig Jahre kein Sprung mehr in der Grafik getan wurde.

Aber alle anderen Generationen konnten sich das nicht leisten wenn man gute IQ haben wollte. Angefangen bei umstieg 16 auf 32bit weiter über TnL, DX8 Pixel Vertex Shader, DX9 Unified Shader. All das waren Sachen wofür man zwingend eine Karte der aktuellen Generation (nach Tick/tock also entweder ein tick oder tock) haben musste um sie nutzten zu können.

DUNnet schrieb:
Warten angesagt :D mal sehen was das Monster mit 3GB Verbrät und gucken was Benches vs. ATi HD5800 sagen!
Die Theoretischen Werte würden, wie bei ATi auch -.-, 100% Mehrleistung versprechen und nVidia ist der Partner wo ich keine Speicherbandbreitenlimitierung vermute :D

Dann schau dir doch mal die Speccs an die bisher bekannt sind! Soviel dann zu deiner Theorie! ^^

DUNnet schrieb:
Das der GT300 um einiges mehr Strom zieht ist ja kein Geheimnis, intern heißt er bei Nvidia "Reaktor" :D
Die wissen selber das der nicht sparsam sein wird. Er wird wahrscheinlich max. 20% schneller sein als eine 5870, dafür wird der so um die 400 - 450€ kosten, mehr Strom benötigen im idle und unter load und von Features wie Eyefinity träumt man bei Nvidia.

Ähm ich denke das "Reaktor" doch wohl eher ne Anspielung auf die Leistung sein soll als auf den Stromverbrauch, oder denkst du der Atom oder Ion ist auch ne Anspielung auf den Stromverbrauch!?
Fermi wird mit Sicherheit viel viel mehr kosten, glaube du kannst da eher von vierstelligen € Beträgen ausgehen, da er ja für den HPC Markt ist und nicht für consumer. Das mit dem Strom ist natürlich wiedermal nur n Gerücht ohne Fundament, er wird sicher gut Strom ziehen (unter load) aber auch dementsprechend Leistung liefern. Und Eyefinity hat zwar ATI aber Nvidia hat dafür ihr 3D Gedöns was ATI wieder nicht hat, das hält sich imho die Waage und kommt auf den User an was er bevorzugt. Ich für mich würde ja 3D bevorzugen da ich den Rand bei Eyefinity mit heutigen Monitoren nicht abkann, aber anderen geht es sicherlich anders.
 
Zuletzt bearbeitet:
Der Release war ja laut Nvidia auch ende diesen Jahres geplant, wobei es sicherlich nächstest jahr wieder überarbeitete Versionen mit höheren Taktraten, anderem Kühlkonzept sowie mehr Vram geben wird. Ich denke da nur an die Entwicklung der 280 zur 285GTX : 55nm, höhere Taktraten und 2GB Vram.
 
lalala sag nru 4 Gb an die 900 Euro xDDD gabs schon auf der GamesCom das ding ;) und die 6G an die 2000 Euro so waren zumindest die ersten zahlen
 
Zitat von PCGH:

"Man habe derzeit funktionierendes Silizum im Labor (wie bereits anhand der Live-Demo des Fermi zu erahnen war) und arbeite mit Hochdruck daran, die Chips für die Massenproduktion zu optimieren. Von diesem Stadium an dauere es in der Regel noch "wenige Monate" bis zur Produktveröffentlichung. In den Händlerregalen dürften größere Mengen Fermi-basierter Chips daher wohl nicht mehr zu finden sein."

hier der komplette Artikel:
http://www.pcgameshardware.de/aid,6...re-Bilder-und-Informationen/Grafikkarte/News/

Meiner Meinung nach ist es auch unwahrscheinlich, das dieses Teil für den Endkundenmarkt bestimmt ist.
Diese Karte ist eher was für Filmstudios.

Deshalb wirds auch sicher noch bis Februar dauern, bis es was neues von Nvidia für den "normalen" Desktop geben wird.

Greetz,
superfunky
 
Ich wär mir da erstmal nicht so sicher dass die GT300 die ATI Karten überhaupt schlagen in sachen 3D performance - mir scheint einiges der chipfläche für GPGPU drauf zu gehen, Tesselation ist nur in software umgesetzt und in sachen DX11 hat man noch keinerlei erfahrung, während ATI das großteils schon seit den hd 2000 integriert hatte.

Also mal abwarten was die Karte dann wirklich bringt in ersten Games die DX11 voll ausnutzen.

Ich zweifel ja noch an dem generellen konzept des gt300, auf der einen seite hat man die hd5000 und auf der anderen Seite droht dann Larrabee - dass sie da mal nicht zwischen drin untergehen mit ihrem zwischending...
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben