Bericht Bericht: Nvidia GF100: Technische Details

Was mir viel mehr sorgen macht. Werden solche Karten auf dem Mainstream-Markt gebraucht? Wenn man nun nur einmal von spielen ausgeht (denke das wird im Consumerbereich den größten Marktanteil dastellen) sieht man heir erstmal nichts mehr von Grafikquantensprüngen. Das hängt auch mit der derzeitigen Marktposition von Konsolen zusammen. Die meisten großen Games werden heute für Multiplattformen entwickelt. Die müssen also auch noch auf der PS3 und der X360 laufen. Da sehe ich wenig Luft nach oben und noch weniger die riesen Titel. Eher das wir unsere derzeit sehr luxeriöse Position aufgeben müssen und Spiele dank schlechterer Optimierung nicht viel besser aussehen aber mehr fressen und somit eine solche Karte verlangen.

Aber ich lasse mich gerne überraschen.
 
Arbiter Elite schrieb:
Damit ist alles gesagt. Die GTX 360 und 380 werden die ATIs pulverisieren. Selbst eine X2 5970 wird gegen die GTX380 verlieren.
Derzeit gibt es keinen Bench, der wirklich Aussagekräftig ist.
Wartet doch erstmal ab. Der Far Cry 2 Bench zeigt ne Mehrleistung von ca 60 bis 70% zur GTX285.
Angenommen die GTX285 macht 100FPS die HD5870 130 bis 140FPS und die GTX380 160 bis 170fps. Also ca 20 bis 30% was die schneller ist als die HD5870.
Durch den einigermaßen soliden Vorsprung kann Nvidia zumindest etwas den Preis diktieren.
Alles nur Spekulation. Aber ich bin mir sicher dass es in etwa so aussiehen wird.
 
Arbiter Elite schrieb:
Die GTX 360 und 380 werden die ATIs pulverisieren.

Schonmal was von Vaporware gehört ?

Außerdem, solange es keine Fakten zu den Nvidia Karten gibt ist alles Spekulation. Niemand weiß was sie Leisten und wieviel Strom sie verbrauchen.

Und wer diese Branche nicht erst seit gestern verfolgt weiß ganz genau das ATi wenige Zeit nach Nvidia eine neue Karte auflegen wird, und umgekehrt. Die Firmen wollen sich doch nicht gegenseitig im Technologie Rennen selber umbringen, in dem sie immer ihre stärksten Karten auffahren. Die HD7780 ist längst in der Entwicklung, genauso wie die GTX 560. Und es wird weitergehen wie bisher.. ATi hält die Krone und dann wieder Nvidia dran und dann wieder ATi und dann wieder Nvidia. Bis zu dem Zeitpunkt an dem eine der beiden Firmen nichts mehr nachlegen kann....
 
@ K4ZUY4
Nur ne kurze Anmerkung:
Die müssen also auch noch auf der PS3 und der X360 laufen
Ja, aber in miesen Settings, AA & AF fallen da wohl weg - bestes Beispiel Crysis2, da werden die Konsolen ziemlich in die Röhre gucken, wenn ein gut ausgestatter PC voll aufdreht!
http://www.pcgames.de/aid,686641/Crysis-2-Von-Performance-Analysen-und-dem-Releasetermin/PC/Special/
"Dank der Entwicklung der CryEngine 3, die hervorragend skalierbar ist, ist es dem Studio möglich, jeweils ein herausragendes Spiel sowohl für die Playstation 3, als auch für die Xbox 360 zu verwirklichen und dabei ebenso die Version für den klassischen Rechner qualitativ noch besser zu realisieren
 
Wie von vielen schon festgestellt wurde, ist alles möglich. Einerseits könnte Nvidia Probleme mit dem Chip haben und die Leute damit hinhalten, andererseits wird das so ein Durchstarter, wie wir ihn vielleicht seit der 8800 Serie nicht mehr gesehen haben.
Wenn Nvidias neue Generation wie bei ATi "nur" die Position der alten DualGPU Karte einnimmt oder sogar der HD 5970, wird sie natürlich schneller sein als die HD5870. Aber darauf zielen sie gar nicht ab. Sie binden ja ziemlich viele Features in die Grafikkarte ein, auf die AMD nicht zwangsweise angewiesen ist. Schliesslich kann AMD über das Prozessor/Chipsatz Geschäft theoretisch viel besser die unterschiedlichen Aufgaben verteilen. Nvidia muss dies über die Grafikkarte machen, womit ihre Position ein bisschen schwerer ist. Sollten sich ihre Features jedoch bewähren, steht AMD/ATi auf dem Schlauch, bis sie Paroli bieten können.
Auf spekulativer Basis weiterzumachen ist aber genauso sinnlos, von daher gilt mal wieder: Abwarten und Tee trinken.
greetz
 
@K4ZUY4

So lange es Leute gibt,die bereit sind mehre Hundert Scheine auf den Tisch zu legen,wird
auch Produziert.Was die Spiele selber angeht,sind natürlich die Programmierer gefragt,aber
es ist davon auszugehen,das es im PC Bereich weiterhin einzelne High End Spiele für den
PC geben wird,Nvidia stellt ja alleine für Prestige Spiele eigene Teams ab,die für das letzte
Fein-Tuning,bzw die dafür Sorge tragen,das die Games auf der Nvidia Karte optimal laufen.


Input_Iterator
 
Huch, was raschelt denn da so? Ich höre es ganz deutlich. Ach, ein süßer kleiner Papiertiger, das erklärt natürlich alles ;)

PS: PR-Menschen sind ja so beschränkt. Wie soll man auf einem Bild voller JPEG-Artefakte irgendwas vom AA sehen?
Gut, sie haben es mittlerweile wenigstens geschafft die weißen Ränder von den Bullets zu entfernen.
 
Zu der ganzen Diskussion hier, fällt mir nur ein Spruch aus einer berühmten Mystery-Serie ein:
"I want to believe"

Um nicht weniger geht es hier bei manchen ;)
Man sollte solche Aussagen über die Performance von Seiten des unter Druck geratenen Unternehmens nur mit Vorsicht genießen. Schließlich haben diese ein Ziel warum sie nun plötzlich ein paar Features usw. raus sickern lassen ;)

Aber nun ne Chipstüte holen und sich an diesem wilden Gerede und Kopf einschlagen der ATI/Nvidia Fanboys ergötzen

Schönen Abend von der Couch :P

Melkor
 
Ich freue mich schon auf den Fermi wenn die Karte wirklich an der H5970 kratzt als single Gpu.
Ein schöner Wasserkühler drauf und los geht der spass .
MFG
 
ALLES NUR BLIE BLA BLUB! NUR SPEKULATIONEN UND KEINERLEI HANDFESTE GRUNDLAGEN/BEWEISE!

Mein Penis ist auch 25cm aber ohne Foto siehts da schlecht aus!

Abwarten und hoffen das dieser bald erscheint und ich meine HD5850 holen kann!
 
Zweifelsfrei sind die Details zur GF100 sehr interessant. Allerdings ist Papier auch geduldig. Ich bin gespannt, wie der Test hier auf CB aussehen wird. :)

xeonking schrieb:
na toll, ich hab mir heute eigentlich auch mehr erhofft. also kann ich getrost zur ati greifen, ich glaube nicht das diese hier soviel schneller wird und ewig warten will ich auch nicht mehr! Bevor der Fermi kommt gibt es ja bald schon die 6000er von ATI:evillol:


MFG XeonKing©!!!

Du hattest Dir mehr erhofft? Die Technischen Details klingen doch sehr vielversprechend! Und die grünen Balken sind auch viel länger, als die roten. :D

Bevor der Fermi kommt gibt es ja bald schon die 6000er von ATI:evillol:

"Gefühlte" 100 x gelesen und trotzdem völlig haltlos. Während die "Next-Gen" GPU von NVIDIA relativ kurz vor dem Release steht, steht ATI´s "Next-Gen" (Northern Island bzw. HD 6000) erst noch bevor. Das es hier bereits zu Verzögerungen kommen wird, steht bereits fest: http://www.hardware-infos.com/news.php?news=3352.
Der Vorsprung den ATI z.Zt. inne hat, kann also sehr schnell wegschmelzen.

Der "Fermi" hingegen muss von NV nur einem shrink auf 28nm unterzogen werden. ;)
 
Arbiter Elite schrieb:
Damit ist alles gesagt. Die GTX 360 und 380 werden die ATIs pulverisieren. Selbst eine X2 5970 wird gegen die GTX380 verlieren. Leider wird sich Nvidia, diese Performance, fürstlich entlohnen lassen. Und ATi muss mit dem Preis auch nicht wirklich runter. Verlieren wird der Ottonormalverbraucher. Für eine Grafikkarte gebe ich nicht mehr als 250€ aus. Die Zeiten meiner knapp 500€ Radeon 9800XT, und später Geforce 6800GT, sind längst vorbei.

Die benches kommen von Nvidia.ALso ist hier garnichts gesagt.Du kannst bei der performance nochmall 30 % abziehen wenn du ein brauchbaren vergleich haben willst.
 
In vino veritas schrieb:
Der "Fermi" hingegen muss von NV nur einem shrink auf 28nm unterzogen werden. ;)

Ach was? Auch über ne Glaskugel gestolpert?


Ob dies fest steht weiss doch noch keiner. Das Jahr 2010 hat doch erst angefangen. Oder weisst du schon was der Oktober 2010 bringt? :rolleyes:


Mann mann mann - solche post dienen niemandem - ausser deinem nV ego
 
Experte18 schrieb:
Die benches kommen von Nvidia.ALso ist hier garnichts gesagt.Du kannst bei der performance nochmall 30 % abziehen wenn du ein brauchbaren vergleich haben willst.
Ja, und dann rechnet man wieder 60% dazu, durch die Verbesserung der Treiber;)

Merkst du was?:rolleyes:
 
Die Benches von AMD wie NV ließen sich in den letzten Jahren 1:1 nachstellen. Faken tut hier idR keiner, es wird "nur" cherry picked.
 
In vino veritas schrieb:
Der "Fermi" hingegen muss von NV nur einem shrink auf 28nm unterzogen werden. ;)

Ach nur? Und wer produziert das dann? TSMC? Die haben noch keinen lauffähigen 28nm Prozess. Intel dagegen überspringt den 28nm Prozess und will gleich auf 22nm gehen. Die einzigen 28nm Wafer die mir im Moment bekannt sind, sind Testexemplare von Global Foundries und ob Nvidia dort fertigen lässt.....ich wage es zu bezweifeln. :rolleyes:

y33H@ schrieb:
Die Benches von AMD wie NV ließen sich in den letzten Jahren 1:1 nachstellen. Faken tut hier idR keiner, es wird "nur" cherry picked.

Was so viel heißt, wir haben heute den "Leistungs-Idealfall" zu sehen bekommen und es gilt ab zu warten wie sich der Fermi im Alltag schlägt.
 
ihr müsst auch bedenken, selbst wenn der Fermi die nase bei aktuellen titel leicht vorne haben wird,

mit wem haben die Spiele entwickler angefangen als erstes an dx11 titel für PC zu arbeiten?

mit ati!

ich glaube das Software seitig ati die nase vorne haben wird.

mfg
masterbratak
 
Fermi muss erstmal released werden, bzw überhaupt verfügbar sein. Und da siehts nicht so aus als würde der noch im März kommen.
Zuest war ja nur von 448bit die Rede. Anscheinend hat das aber nicht gereicht um ein kleines Stück schneller zu sein. Also hat man eventuell nochmal n neues Stepping gebracht. Kann ja auch sein.
Die Philosophie von Nvidia ist es ja normalerweise niht so halbgare Infos zu geben.
 
Was ich immer wieder interessant finde ist diese These das Fermi für den Verbaucher ja so unglaublich Teuer wird. Und was ich viel interessanter finde, wie viele 100000000 Leute das so aufgrabschen.

Sagen wir mal die Ausbeute ist wirklich schlecht und liegt bei dem Faktor 0,5 bis 0,7 gegenüber dem GT200 (Aufgrund der Größe) (ATI Vergleiche hier völligst unangebracht) was bedeuten würde für den Verbrauche steigen die Produktionskosten je Die um 1,5 bis 1,8.

Soweit so gut. Aber wie hoch sind noch mal die Produktionskosten eines Die im Vergleich zum Endpreis für den Verbaucher? 3 oder 4 % des Gesamtpreises ? Oder noch weniger ??

Überhaupt kein Grund da von 200€ Mehrkosten zu sprechen. Einen solchen Chip würde Nvidia niemals produzieren da die Nachfrage, bei einer Karte die 700€ oder mehr kostet, so drastisch einbrechen würde dass die den Break-even-Point in 20 Jahren erreichen.

Das weiß Nvidia ebenso oder glaubt ihr etwa alle Nvidia denkt sich

"wir machen da jetzt mal einen Chip mit dem wir definitiv Verluste verbuchen nur um ATI mal die Grenzen aufzuzeigen"

Im Endeffekt wird die Karte 10, maximal 20 Euro an Mehrkosten aufweisen (was mE nach als pro Stück noch viel zu hoch kalkuliert ist, vllt 5 Euro).

Das Problem, wenn TSMC seine Lieferzusagen und Produktionsversprechungen nicht einhalten kann (was immo ATI Gegenüber ein Problem ist) schlägt sich nicht in ATI's oder dann bald Nvidias Produktionskosten nieder, sondern in denen von TSMC! Das ist allein deren Bier wenn die ihre Fertigung nicht in den Griff kriegen.


Über die Leistung lass ich mich nicht aus da Niemand die Karte bis jetzt kennt.

Nur diese ganzen Besserwisser hier, die glauben das sich bei Nvidia noch kein Mensch Gedanken über Größe, Yieldrate, Ausbeute, Verfügbarkeit usw. us.f gemacht hat und hier meinen es besser zu wissen haben'se einfach nicht mehr alle aufm Zaun, sorry aber ist meiner Meinung nach so.
 
Zuletzt bearbeitet:
Zurück
Oben