News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
@Smartin: ich will mich jetzt nur auf einen satz aus deinem ellen-post beziehen. keine sau redet hier was schlecht. wir spekulieren über sinn und unsinn einer solchen architektur, ihre effizienz (leistung und leistungsaufname), preis, zielgruppe und noch so einiges andere.
 
@Smartin

die 30% beziehen sich aber nur auf aktuelle Spiele, DX11 Games rechnen auf der neuen Hardware noch schneller, da sind wir dann bei über 50%
 
das teil ist so gut wie gekauft :)

verkauf ich meine gtx'en und dann bekomm ich die neue karte quasi umsonst. denke von der performance lieg ich dann gleich auf :)
 
nVidia hatte zur Vorstellung der Hd5870 gesagt das man in Zukunft nicht so viel Gaming Power braucht sondern CudaLeistung und PhysiX. Deswegen sehe ich den GT300 eher als eine Quadro mit Gameingeigenschaften. Die GPu kann man dann wahlweise zur Quadro oder Geforce verbauen. Und da die GPU dann beides vereint werden auch nicht alle Transistoren fürs Dx11 oder OpenGL berechnen/rendern gebraucht werden dazu kommen L1 und L2 Cache. Die Topkarte wird aber trotzdem ein Hd5870CF in Angriff nehmen. Ein Blamage wird es diesmal von nVidia nicht geben.
 
Medano schrieb:
Mein Kenntnisstand ist Ende November/Anfang Dezember


Logisch, nachdem Ati jetzt das Weihnachtsgeschäft mit nimmt, verkauft auch NVidia
was sie können - auch wenn das nur die 2% des ersten Testwafers sind. ;)

Diese wollen sie jetzt also Ende November auf den Markt schmeißen. Meiner Meinung
nach wird sie nicht wirklich lieferbar sein, aber okay - wayne ist den meisten eh zu teuer!

Da ist das Problem für NVidia, für Karten im Mainstreammarkt ist immer noch kein anderer Termin als Q2 bekannt.
Viel zu spät ! Wer viel Leistung für wenig Geld braucht, kauft sofort und dann aber die Radeon 4770/4750.

Kaum ist die GT3xx draußen, wird dann auch ATI schon wieder zurückschlagen. Sicher, den Kunden freut das,
aber der normale Gamer und nicht NVidia Fanboy hat sich bis dahin schon bei der Konkurrenz eingedeckt.

Erinnert mich jetzt irgendwie an Matrox, welche mit Ihren Mehrdisplay Funktionen letztendlich nur noch einen
sehr kleinen Markt ansprechen konnten.

NVidia hat sich dem GPU Computing verschrieben. Meiner Meinung nach sehr gewagt, denn mit DX 11 und der entsprechenden API
wird man auf jeder Grafikarte GPU Computing betreiben können. Große Softwareschmieden werden sich so einfach nicht die Mühe machen
jetzt extra nochmal eine CUDA Unterstützung in Ihre Software zu integrieren. Das zu unterstützen kann so teuer werden,
daß es sich für NVidia auch nicht mehr lohnt.

ATI dagegen kann sein Produkt billiger produzieren und ist damit schon Monate früher am Markt.
Für Gamer lohnen sich die Monate und 0815 Videoschnittfans reicht die DX11 Leistung einer ATI Karte sicherlich auch aus.

Ich denke, es könnte drauf raus laufen, daß NVidia am Ende nur noch für einen kleinen Kreis von Universitäten und Cloud Cumputing Anbietern produziert.
Die ersteren programmieren Ihre Software quasi als Hausaufgabe und für die letzteren lohnt sich vielleicht noch eine Anpassung Ihrer Software.
 
Zuletzt bearbeitet:
@giorgiogabbana:
Ich glaube das wäre ein echter EPIC fail, drei GTX285er Karten gegen eine mit Fermi-Chip zu tauschen.
 
Vielen Dank
habe ich das verstehe ich das richtig das die Grafikkarte mit GPGU computing noch außer Grafikberechnung noch andere Aufgaben übernimmt?
 
wieso? ich denke echt das eine fermi gleichauf mit den 3 ist, besonders die variante mit 3 oder 6gb speicher. langsamer wird sie aber auf keinen fall sein, da bin ich echt sicher.
 
@tom221:
Sofern es der Treiber und die Software zulassen: Ja!
Ist aber momentan sehr beschränkt da GPUs nur bestimmte Berechnungen durchführen können.

@giorgiogabbana:
Warte mal die Benchmarks ab. Du wirst sehen, dass drei 285er schneller sind. Alleine schon weil Fermi wohl keine reine GPU wird und das Hauptaugenmerk wo anders als bei Games und FPS liegt.
 
Zuletzt bearbeitet:
Bullet Tooth schrieb:
Die GPu kann man dann wahlweise zur Quadro oder Geforce verbauen.

Glaube ich nicht. Und wenns funktionieren würde, dann wäre der Preis für eine Quadro Karte utopisch. Bei denganzen Entwicklungsgeldern die Nvidia jetzt schon verprasst hat, muss in der Hinsicht natürlich was brachiales exclusives her, für 10000 Euro das Stück?^^
Ich hab mir jetzt im Internet die ganzen Infos mal allesamt durchgelesen.
Fürmich sieht es so aus,als ob Nvidia auch stromsparende GT300Karten rausbringen wird, die ähnlich schnell wie die ATI TopKarten sein werden.
Hier liefert man sich einen kleinen Preiskampf und nebenbei bringt man die GPGPU Karten, (oder sollte man besser CGPU Karten sagen?), unter die Firmen.
So nimmt man einerseits ATI Marktanteile weg und kann eventuell, wenn auch nicht für lange Zeit gegen Intel anstinken, bevor von denen dann was ordentliches kommt und in GGPU Computing einiges an Gewinn einfahren.
3GB und 6GB DDR5 macht nur genau bei diesen Berechnungen Sinn.
Die Karten für die Gamer werden deutlich abgespeckt sein, Ohne l1/l2 Cache undohne den ganzen Schnickschnack.
Eentuell mit dem psychlogischen Vorteil von 1,5gb. Aber mal abwarten.

Wäre nicht sauer, wenn jemand sagen würde, was schreibt der Schaffe89 für nen Quatsch.^^
 
Zuletzt bearbeitet:
Hallo erstmal,

Ich finde es wirklich gut, welche immensen Leistungssteigerungen und zusätzlichen Hardware Features Nvidia in diese neue Grafikgeneration integriert.
Wenn ich mir dann aber anschaue, dass das ganze dann noch in 40nm produziert wird und is jetzt noch keine Massenproduktion angelaufen ist, frage ich mich, ob da nicht dann doch noch ziemlich esentielle Probleme auftreten könnten, die vielleicht den Release einer fertigen Grafikkarte um mehrere Monate zurückwerfen könnten.

Ich kann mir nur schwer vorstellen, dass sich das alles inerhalb der nächsten zwei Monate bewerkstelligen lässt.
Denn wenn die Ausbeute an funktionierenden Einheiten tatsächlich zumindest niedrig ausfällt, was ja eigentlich scharf dementiert wurde, würde da vielleicht noch die ein oder andere Grundlegende Änderung vorgenommen werden müssen und sowas dauert nicht nur einen Monat.

Davon abgesehen, bin ich auf die Kühlarchitektur sehr gespannt denn ich Frage mich ernsthaft ob hier die Taktraten wirklich stark erhöt werden können ohne, dass das ganze zu heiß wird und wenn bei den Taktraten nicht zu stark nach oben geschraubt werden kann, dann muss Nvidia ja die Zahl der Transistoren und Hardware Features erhöhen.

Ich würde wirklich gerne mal eine fertige Karte sehen die komplett so wie sie ist funktioniert und nicht immer nur die Spezifikationen der einzelnen Bausteine, ich glaube, da liegt der Hund begraben und denke, dass es so gut wie unmöglich ist in so kurzer Zeit (bis Dezember) eine wirtschaftlich rechnende Version dieser Grafikkarte auf den Markt zu bringen.

Ich glaube die haben sich verschätzt und denke, dass es entweder eine völlig mit Kinderkrankheiten überladene und warscheinlich unausgereifte wahnsinnig (>900 :)) teure Grafikkarte dieses Jahr oder eine akzeptable Mitte nächsten Jahres geben wird.
 
Zuletzt bearbeitet:
ich bin einfach vom Computerbasetest (Performancerating) ausgegangen und da liegt die Atikarte zwischen 22-32% vor der 285GTX (wenn man 8x AF hinzunimmt sind es ca 40%).

Es geht mir ja auch gar nicht darum, wieviel die Karte schneller oder langsamer ist. Es geht mir vielmehr darum, dass wahrscheinlich Leute selbst dann noch einen "Krieg anzetteln" würden, wenn die Karten gleichschnell wären und sie zwanghaft suchen würden, um das Pendant schlecht zu reden.

Hier werden teilweise schwachsinnige Argumente angeführt: (zB) Die Karten kommen erst im Februar und Nvidia ist ja nur deshalb schneller, weil sie mehr Entwicklungszeit hatten. Da muss man das ja erwarten.
1. woher weiß derjenige das, dass die Karten erst im Februar kommen und nicht etwa schon im Dez, wie Nvidia angibt oder gar erst im April oder gar erst im Juli?
2. Wer zwingt Ati dazu die Karten jetzt rauszubringen und diese nicht weiterzuentwickeln?
3. Gibts die Karten überhaupt schon? (nee (noch) nicht)
4. Selbst wenn die Karten "erst" im Februar kommen, warum soll das die Situation ändern? Wenn Ati bis dahin keine neue Karte rausgebracht hat, ist Nvidia immer noch schneller.
...

Diejenigen die hier sachlich argumentieren, die brauchen sich ja nicht angesprochen fühlen. Meistens tun sie es auch nicht. Es geht nur darum, dass sobald ein Produkt auf den Markt kommt/bzw vorgestellt wird, egal ob von Nvidia oder Ati, es garantiert Leute schlecht reden werden und "enttäuscht" sein werden!?
 
Zuletzt bearbeitet:
Danke
aber ist doch eigentlich nix schlechtes dran wenn eine Grafikkarte gute Grafikberechnungen kann UND noch Aufgaben von der CPU übernimmt. Und je besser GPGU computing wird desto mehr Treiber werden doch kommen?!
 
Habe Gelesen das die DIE size ~ 529m² (23*23mm) liegen soll
 
Volker schrieb:
Da hast du sicher nicht Unrecht, aber das allein bringt es nicht. AMD hat bei diskreten Grafiken für den Desktop angeblich über 50% Marktanteil, jedoch verdienen sie damit nix sondern machen jedes Quartal nur Verlust in dem segment. Und die 4k-Serie lief schon wie Butter vom Stapel!

Das liegt aber auch an den Preisen, die zurzeit vorherrschen. Wenn ich mir mal so die typischen Preise für Grafikkarten mit in etwa gleicher Die-Größe und Speicherinterface vor R600 (der diese Preissituation indirekt eingeleitet hat, deutlich wurde es dann mit G92 und RV670), dann war vor der Zeit mit einer Grafikkarte der gleichen Kostenstruktur deutlich mehr zu holen.

Wenn man natürlich ein Produkt hat, was mit geringeren Aufwand auch auf andere Märkte drimmen kann, macht man das auch. Was Nvidia jetzt macht, ist allerdings mit relativ viel Manpower die Profi-Ecke zu bedienen. Hoffen wir mal, dass viele der Funktionen auch im 3D-Bereich etwas bringen und nicht nur "sinnlos" (für die 99%+ der Zielgruppe hier im Forum) Die-Fläche verbraten.
 
@feldwebel-Chief:
Wo haste das gelesen? Link?
Das wäre ja extrem riesig... Wenn das mal gut geht mit der Ausbeute?
 
Besser wärs die Hersteller einigensich darauf, wann wer eine Graka rausbringt.
Damit der eine ein halbes Jahr saftig einnehmen kann und Preise hochhalten und dann das nächste halbe Jahr der andere.^^

@ Feldwebel Ich hoffe doch 529mm². GPUoder CGPU?
Die größe wäre eigentlich noch vertretbar. Aber das Verhältnis zählt. Amd´s Chip ist "nur" 338mm² groß. Demnach bessere Yields+ geringere Kosten.
Ich glaube aber mal drann, dass der CGPU Riese da eher an die 600mm² rankommt.^Kosten 2 Cache+ die ganzen komplizierten anderne Einheiten die erwähnt wurden nicht auch noch platz?=)
 
Zuletzt bearbeitet:
ach ja, dadurch wird der Vergleich zum Larrabee noch interessanter, welcher ja eine ähnliche theoretische Rohleistung haben soll. Ich könnte mir aber vorstellen, dass Intel im Computing Bereich durch ihr Know How doch vorn liegt.

Weiters kann ich nur für alle Gamer hoffen, dass dieser Chip nicht wirklich so mit all dem (für die Breite Masse) "unnützen Ballast" daherkommt. Ansonsten hat nVidia Preis-Leistungsmäßig keinerlei Chance, da der RV870 halt rein auf DX11 Grafikperformance hinaus entwickelt wurde.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben