Bericht Bericht: Nvidia GF100: Technische Details

@Luxmanl525: was hat der bericht mit objektivität zu tun? das ist eine produktvorstellung von nvidia. da cb keinen eigenen test einbringen kann, sondern nur die angaben weitergibt, die nvidia preisgibt (und auch hier ab und an darauf hinweist, dass angebliche leistungsvergleiche mit vorsicht zu genießen sind), kann ich deine aussage bezüglich mangelnder objektivität nicht ganz nachvollziehn.
 
mapel110 schrieb:
http://forum.beyond3d.com/showpost.php?p=1381891&postcount=635

Musst da die Postings drumherum noch lesen, damits klarer wird. Für ATI jedenfalls auf einmal sehr unwichtig. ^^
Dankeschön, allerdings muss man dazu wissen, dass Dave Baumann von AMD/ATI ist
den schrieb:
na bis nvidia die karten auf den markt bringt,wird ati schon den nachfolger der HD5870 vorstellen)
Das denke ich nicht, soviel Potenzial hat Cypress nicht, dass sie da noch viel reissen können. Aber ich lasse mich gerne überraschen. Und Manhattan dürften wir frühestens Ende 2010, eher Mitte 2011 sehen.
 
Auch wenns eigentlich eher Off-Topic ist: Aber Manhattan ist doch nicht die nächste Desktop GPU Generation, sondern sollte ein 32mn Evergreen für Mobile werden und "Northern Island" die nächste Desktop GPU - oder?!
 
Martricks schrieb:
@ DvP
du hast mich zitiert, aber das habe ich garnicht geschrieben.
"Was nützt also Eyefinity ?"

Sorry, keine Ahnung wie das passiert ist *g* Hab es auf jeden Fall korrigiert. Jemand anders war der "Bösewicht" ;-)

Einhörnchen schrieb:
Das denke ich nicht, soviel Potenzial hat Cypress nicht, dass sie da noch viel reissen können. Aber ich lasse mich gerne überraschen.

Puh, eigentlich wollte ich da gleich dagegen reden, aber aktuell ist mir auch nicht klar, wie ATI auf dieser Basis ein schnell mit einem Pendant reagieren wollen würde. Irgendwie rechnet aber jeder damit - vor allem die Fachpresse. Aber genaueres hab ich NIRGENDS gelesen und wenn ich mir die Daten durch den Kopf gehen lasse, fällt mir nichts "einfaches" ein wie man da die Leistung um ev. nötige 30% oder so hochjagen könnte. Nachdem der Cypress zwar schon seit ca. August bzw. September fertig war, hätten sie zwar genug Zeit aber weder im Fertigungsprozess (sicher nicht), noch in der Architektur (wenn ja, WO?) kann man so einfach Reserven locker machen. Also ev. nur neues Stepping und dadurch höherer Takt?

@ GPU Architektur Wissende
Woher kamen die zusätzlichen Transistoren beim wechsel von 4870 zu 4890? Neues Stepping und Optimierungen um den höheren Takt möglich zu machen? Pixel- und Texelfüllrate sind unverhältnismäßig stark gestiegen bei dieser Änderung. Was hat ATI da gemacht? Vielleicht wirds ja bei einer 5890 auch so aussehen.
Die resultierunde Leistung stieg auch in einem größeren Verhältnis. Achja, CB hatte die zusätzlichen Transistoren rein als Zugeständnis für höhere Taktraten und ev. wegen der verbesserten Stromsprafunktion im Idle bezeichnet. Kann meiner Meinung nach so nicht stimmen. Ist zwar ziemlich OT aber es würde mich SEEEHR interessieren was ihr dazu sagt. Vor allem in Hinblick auf Cypress und eine ev. neue Rev. davon. Danke!
 
Zuletzt bearbeitet:
ähm joa, hab ziemlichen Mist geschrieben, wenn ichs mir recht überlege. also *ignore*
 
Zuletzt bearbeitet: (hab Mist geschrieben)
mapel110 schrieb:
http://forum.beyond3d.com/showpost.php?p=1381891&postcount=635

Musst da die Postings drumherum noch lesen, damits klarer wird. Für ATI jedenfalls auf einmal sehr unwichtig. ^^

würde nicht sagen dass er tesselation runterspielt mit der aussage, für mich klingt dass nur danach dass er sagt dass die in der 5870 vorhandene tesselation hardware für den rest der in der karte verwendeten render pipeline ausreichend ist und eine besser tesselation unit in real world applications nur etwa 2% mehr leistung gebracht hätte.

wie weit das stimmt ist eine andere frage, die aber nicht wirklich beantwortet werden kann bis es fermi karten und die spiele gibt die tesselation einsetzen.

Hab aber schon ein paar posts früher darauf hingewiesen dass pure tesselation power alleine nichts bringt wenn der rest der hardware dann mit der hohen poly anzahl nicht zurechtkommt und dort fps einbrüche erzeugt werden.
Bin definitiv gespannt wie sich die beiden ansätze wirklich in spielen schlagen werden, aber leider wirds noch ein wenig dauen bis die fermi draussen ist und warscheinlich noch einiges länger genug spiele vorhanden sind um darüber eine aussage zu treffen.
 
Also wieso diskutiert ihr eigentlich wegen der Tesselation rum.
Wer sagt denn, dass die Tesselation Engine der Flaschenhals ist.
Wer will kann ja mal ein bisschen da rumprobieren, einfach ne HD 5000 nehmen und dann ein bisschen mit der Tessdemo von Microsoft rumspielen. Ich hab leider grad keine.

@topic: Ich find die Architektur relativ komplex, für mich sieht das aus wie 16 einzelne GPUs auf einem Chip mit gemeinsamen Speicher und Cache. Wie das in der Realität skaliert, steht noch in den Sternen.

Edit: @über mir, genau das meine ich.
 
"Darüber hinaus beträgt die Anzahl der ROPs (Raster Operation Processors) satte 48 – ebenfalls eine Verdoppelung."

Beim GT200 waren es 32 ROPs, also "nur" eine Steigerung um 50%.

Also ich finde die Rohdaten sehen schonmal vielversprechend aus. Wenn die Leistung so ausfällt, wie die Daten es vermuten lassen, hol ich mir im Sommer einer GTX 380!
 
milamber! schrieb:
Sorry, aber da muß ich doch ziemlich viel hinein interpretieren, um es als "sehr unwichtig" zu verstehen
Wenn ein Feature, das vor Wochen noch hochgelobt wurde und fleißig in Showcases gezeigt wurde, plötzlich als nur noch 2 % Performance-relevant bezeichnet wird und Qualitätsaspekte (wesentlich höhere Geometrieauflösung und somit Grafik) ausgeblendet wird, ist das für dich keine Untertreibung mehr? Und wie Mappel gesagt hat, die Diskussion drumherum auch mitverfolgen.
swiftxp schrieb:
Auch wenns eigentlich eher Off-Topic ist: Aber Manhattan ist doch nicht die nächste Desktop GPU Generation, sondern sollte ein 32mn Evergreen für Mobile werden und "Northern Island" die nächste Desktop GPU - oder?!
Du hast Recht, Northern Islands! Am besten ich bleibe bei RV970/R900, da weiß jeder was gemeint ist...
 
Hoffentlich kommen die mal zu potte, will mich endlich zwischen 2 anständigen Kartenserien entscheiden können und nicht auf eine angewiesen sein. Und jetzt noch dx10 werde ich mir nicht antun. :)
 
tja, diesmal ist ati vorne. warum soll ich mir eine GF kaufen, die wahrscheinlich 200-300€ teurer ist wie ne ati und die ein bißchen schneller ist wie eine ati? was mann als normalverbraucher wahrscheinlich eh nicht merkt.

warum soll ich ich mir eine überteuerte GF kaufen die noch nicht mal aufm markt ist, vielleicht erst im mai, wenn anscheinend ati an der nächsten generation drann ist und die "vielleicht" ende dieses jahr rausbringt?

gruß gerry
 
Zuletzt bearbeitet:
Jo ich bin net der Meinung dass Nvidia mit Fermi viel reißen wird.
So unggaublich schnell wie manche hier meinen wird das Teil imho net (Wie denn auch)
Seien wir mal realistisch.
Die 380er wird wohl in Spielen (ohne PhysicXdings) höchstens 40% schneller als die 5870, wohl eher 25% (Meine Meinung!)
Nach den bisherigen Informationen, wird die Produktion erheblich teuerer sein als bei AMD (Yield Rate ...)
Auch der Stromverbrauch, somit auch die Verlustleistung und Laustärke werden nicht gerade klein sein.

Manchen Leuten mag der Stromverbrauch bei High End Karten egal sein, ich denke es gibt dennoch Leute
die gerne mal was an der Stromrechnung sparen.
Auch wenn meine Eltern den Stom bezahlen, verbrauch ich net mutwillig tonnenweise Strom mehr für ein paar Prozent mehr Leistung.
(Jaja ich weiß dass man Strom net wiegen kann ^^)

@ Eichhörnchen: 2% Mehrleistung gegenüber keiner Möglichkeit mit Tesselation zu rechnen wäre nicht viel, das stimmt.
Leider hat das nur niemand geschrieben.^^
Wenn der Kerl sagt dass eine !bessere! Tesselation Einheit nur 2% gebracht hätte, ist das was ganz anderes.

mfG Galaxy (Habe übrigens ne Geforce, nix mit Fanboy -.-)
 
Die Leistungsdaten sehen sehr gut aus,was aber letztlich am anderen Ende heraus
kommt hängt nicht nur von der Hardware ab,sondern auch von der Fähigkeit der
Programmierer und vor allem der Entwicklertools seitens Nvidia ab,so viele
Recheneinheiten wollen auch anständig ausgelastet werden.


Input_Iterator
 
Einhörnchen schrieb:
Wenn ein Feature, das vor Wochen noch hochgelobt wurde und fleißig in Showcases gezeigt wurde, plötzlich als nur noch 2 % Performance-relevant bezeichnet wird und Qualitätsaspekte (wesentlich höhere Geometrieauflösung und somit Grafik) ausgeblendet wird, ist das für dich keine Untertreibung mehr? Und wie Mappel gesagt hat, die Diskussion drumherum auch mitverfolgen.

Ich kann nach wie vor in seinen Aussagen nicht den Inhalt entdecken, der besagt "Tesselation ist ja gar nicht so wichtig".
Oder wird nun nach etwas gesucht, um auf Nvidias "DX10.1" bzw. "DX11 ist unwichtig" aussagen mit einem 'Ätsch ATI' antworten zu können?

Um gegen sowas, sowas oder sowas anzustinken, brauchts doch einiges mehr.

Gerade letzteres ist besonders witzig, wenn man die aktuelle Situation betrachtet.
 
@AwesomeSauce:
Mit dem letzten Kommentar hat er nicht unrecht.
AMD rechnet eigentlich in letzter Zeit sehr negativ, sodass ich trotz der Gerüchte, welche ich nicht einschätzen kann und nicht weiß aus welchem Quellen sie kommen mit Ende 2010/Anfang 2011 rechne.
Da diese Komplett von globalfoundris stammen könnten sie auch einiges produzieren können, weil schlicht einer alleine mehr Platz hat^^^(Glaube nicht das die mit 28nm Graka Technik in kleinen Hallen anfangen)

Nvidia kommt laut gerüchten frühestens im März raus und angeblich wirklich gut Lieferbar erst ab sommer.
Also ich rechne mit den neuen AMDs SPÄTESTENS ein Jahr nach Fermi.

€dit:
Wenn Globalfoundris die 28nm hinbekommt ;)
 
Zurück
Oben