Bericht Bericht: Nvidia GF100: Technische Details

Jokener/Artikel schrieb:
....Wer nun vielleicht gehofft hat, dass mit diesem Review auch endlich die ersten Serienkarten gezeigt werden, wird leider enttäuscht werden...

(Artikel/Erste Seite/Letzter Absatz) Warum nennt man es dann überhaupt Review? Das ist es eben nicht. Gerade in Hinblick auf den nächsten Satz muss man schon sagen: Entscheide dich doch mal ;-)

melemakar schrieb:
Ich meine mal vor einiger Zeit gelesen zu haben, dass der Fermi keine eigene "Tesselator Unit" hardwaremäßig verbaut hat, sondern dies alles softwareseitig emuliert - ist da jetzt eigentlich was dran oder waren das alles nur wieder Gerüchte?

Kleine Frage am Rande: Hast du den Artikel gelesen? Da es keine dedizierte Tesselation Unit gibt ist es ein Software-Feature, was aber nicht zwangsläufig heißt, dass diese Lösung langsamer arbeiten muss. Hoffentlich werden Performanceunterschiede diesmal nicht so maßgeblich von der Optimierung der Engines abhängig. Zu befürchten ist das natürlich :-(
 
@Exar_Kun: genau das meine ich ja. aber lies mal wie viele hier am rummosern sind, dass die gtx380 ja nur 50% schneller wäre und das zu lahm und ne schwache vorstellung wäre...
wenn dann aber die 6870 die 5870 um 40% übertrifft, ist das bei den gleichen leuten dann wieder die sensation. :freak:
 
Echt mal viel fanboy geblubber

zu dieser Eyefinity/Surround-Vision geschicht... aehm wayn intressierts?!

Schon klar das leute die sich 3-6 Monitore kaufen dann kein geld mehr uebrig haben um sich eine zweite graka bzw. Adapter fuer ihre ati zu kaufen, aber das wird nur auf wenige user zutreffen den so spassig diese multimonitor geschicht auch sein mag es wird erstmal eine Randerscheinung bleiben, zumal ein grosser monitor bzw. extrem breiter monitor besser ist als mehrere kleine...

axo noch was wer denkt er könnte mit EINER 5870 oder 5890 auf 3-6 monitoren eine spielbare framrate erreichen lügt sich einen in die tasche.

und wo sind eigentlich die leute die sagen "3 monitore verbrauchen mir zu viel strom!"
 
Zuletzt bearbeitet:
@miagia

du solletst dir mal den eyefinity test von CB anschaun bevor du hier solche behauptunten aufstellst.


gruß
 
miagi schrieb:
Echt mal viel fanboy geblubber...zu dieser Eyefinity/Surround-Vision geschicht... aehm wayn intressierts?!...

Dann stell dich doch selbst an den Pranger mit deinem "grünen" blablabla. ATI hat ein Feature, das nVidia nicht bieten kann in diesem Fall. Ob du es brauchen könntest oder nicht sagt nichts über die allgemeine Sinnhaftigkeit von Eyefinity aus.
Warum redest du eigentlich nur übers spielen? Ich kenne einige die sich das schon überlegt haben und sogar bei uns im Office hab ich den Chef schon laut überlegen hören, ob eine günstige HD5XXX nicht doch das richtige wäre, damit er endlich 3x 1920x1080 anhängen kann. Ist übrigens ein nVidia Fan!
Ein (großer) Monitor ist auch nicht immer besser mehrere kleinere. Verabschiede dich doch bitte von deinen dogmatischen Aussagen und verwende sie lieber in "Diskussionen" der Naturkonstanten in der Physik. Da haben sie wenigstens eine Berechtigung.
 
Zuletzt bearbeitet:
Kleine Frage am Rande: Hast du den Artikel gelesen?

Da normal-sterbliche wie ich nichtmal die Hälfte von dem verstehen, was da überhaupt steht nur das, was für mich primär wichtig erschien, und womit ich was anfangen kann.


Wenn cih schon sowas lese:
Um den Workload besser bewältigen zu können und damit die Auslastung aller Einheiten zu gewährleisten, verfügt jeder Streaming-Multiprocessor auf dem GF100 über eine „PolyMorph Engine“ – es gibt also 16 Einheiten davon. Jede PolyMorph Engine kann einen Vertex Fetch ausführen und sich die Vertices (Ecken eines Polygons) aus einem globalen Vertex Buffer holen. Die Vertices werden dann zum Vertex Shading und zum Hull Shading geschickt, um dann den Tessellator nutzen zu können.

versteh ich echt fast nur Bahnhof - und da werde ich wohl - mit wenigen Ausnahmen hier - wohl nciht ganz alleine darstehen :)
 
@DvP
Natürlich hat der GF100 dedizierte Tesselator-Einheiten (fixed function), und zwar je eine pro Polymorph-Engine:rolleyes: Da ist gar nix "Software"...

Werden die Artikel überhaupt gelesen?

Für die ATi-Verschwörungstheoretiker, die immer glauben, Nvidia kaufe sich in Spiele ein und behindere ATi-Karten in deren Performance: http://bjorn3d.com/read.php?cID=1778&pageID=8320
 

Anhänge

  • b16.jpg
    b16.jpg
    36,8 KB · Aufrufe: 617
Zuletzt bearbeitet:
Interessant wird sein, wieviel Potential Nvidia aus der Fermi Architektur bei den Nachfolgechips herausholen kann, denn das Pferd auf das NV jetzt setzt, wird eine zeitlang halten müssen.
Vergleicht man den G80, muß man zugeben, daß diesem gegen Ende doch ein wenig die Luft ausgegangen ist. ATI hat, auch wenn's 'ne zeitlang gedauert hat, mit der HD4xxx Serie sehr gut dagegen halten können und mit der HD5xxx einen zufriedenstellenden Absprung geschafft.
 
Lübke schrieb:
@Exar_Kun: genau das meine ich ja. aber lies mal wie viele hier am rummosern sind, dass die gtx380 ja nur 50% schneller wäre und das zu lahm und ne schwache vorstellung wäre...
wenn dann aber die 6870 die 5870 um 40% übertrifft, ist das bei den gleichen leuten dann wieder die sensation. :freak:

Wobei ich mich jetzt frage woher die hier prophezeite angebliche Mehrleistung von 40-60 oder noch mehr Prozent einer GTX380 gegenüber der HD5870 herkommen soll, denn der Artikel lässt eher was anderes vermuten.
Ich für meinen Teil rechne eher mit 0 - 20/30%, wobei die grosse unbekannte die Taktfrequenz ist.
 
Netter BEricht zu den Details.... mich persönlich interessiert aber eher was am Ende wirklih an Leistung heraus kommt. Denn Details lesen sich sehr oft überragend und bringen dann am Ende doch nicht das was sie vermuten lassen.
Man bedenke ATIs desaster mit dem R600. Die Details dazu lasen sich grandios, grade zu Phantastisch. Und am Ende war es dann doch nichts mit der hohen Leistung.

Und weil ich hier manchmal lese das der Verbrauch bei so einer High End Karte uninteressant wäre... nur mal so ein Denkanstoß. Hoher Verbrauch = hohe Wärmeentwicklung = extrem schwer zu kühlen. Wollt ihr euren Spielsound noch hören oder soll dieser durch röhrende Lüfter übertönt werden? Und auch ein Porsche verbraucht mittlerweile im Verhältnis zur Leistung wenig, denn hoher Verbrauch ist immer schlecht.

@Asfark
Wo war denn die 5000 Reihe ein Papiertieger? Die Leistung ist höher gewesen als die Erwartungen. Oder meinst du das sie schlecht verfügbar war und teilweise immer noch ist? Dann gebe ich dir recht.
 
@wadenbeisser: die 50% (eigentlich 40%-60%) stammen von den personen, die das als schwache leistung runterreden.
ich denke auch eher, dass 10% bis 20% realistisch sind, allein weil ein weiteres ausreizen der gpus wirtschaftlich nichts mehr bringt und nur zu lasten der brauchbaren chips je waver gehen würde.

nur dieses gerede ist einfach lachhaft, dass eine exorbitante mehrleistung gefordert und gleichzeitig auch noch schlechtgeredet wird. manche scheinen einfach nur zum bashen hier zu sein.
 
AwesomeSauce schrieb:
Für die ATi-Verschwörungstheoretiker, die immer glauben, Nvidia kaufe sich in Spiele ein und behindere ATi-Karten in deren Performance:..
Wozu einkaufen wenn man den Programmierern tatkräftig unter die Arme greifen und somit die Unterstützung der eigenen Produkte verbessern kann?
Wie war das beispielsweise noch mit den vorgefertigten Shaderblöcken bei Crysis?
Man kann die Programme von vorn herrein besser an die eigene Hardware anpassen und die Konkurrenz muss dann erstmal nachziehen.
Der eine Hersteller hat Geld für so einen erweiterten Support und der andere nicht...so einfach geht das.
 
@göschle

vielleicht ganz interessant, wenn auch hier offtopic:

wie ich bereits in nem andern threat mal geschrieben hab, hatte ich mal in meiner studienzeit eine hochrechnung erstellt für den "event horizont" ab wann sich raytracing deutlich besser macht als rasterisierung.

lange rede kurzer sinn: nach einer kürzlichen hochrechnung von meiner behauptung damals zur aktuellen generation (und eienr angenommenen steigerung von 50% pro generation bei den grafikkarten und unter annahme der leistungsfähigkeit von intels cloud architektur erreichen wir diesen punkt in 3 generationen (also 2012/2013) und um ehrlich zu sein spielt mir die änderung in der architektur bei nv da so in die hände das ich zu behaupten wage, dass es eventuell bereits in 2 generationen so weit sein könnte. das einzige was mir das nach wie vor gedanken machtdie 48 paralelen prozesse auf der cpu nötig währen für eine effektive verwaltung ... (daher meine hoffnung auf den cloud)
 
Lies bitte was da steht:mad:
ATi-Karten profitieren genau gleich von den Optimierungen!
 
@wadenbeisser

was sie davon haben? games in denen bei jedem start steht, das nv die grafikakrte für gutes spielvergnügen herstellt ^^ nennst sich werbung ;)

EDIT: ist sogar die beste werbung die man sich denken kann, denn 100% derer die es erreicht sind auch zielgruppe *g*
 
AwesomeSauce schrieb:
@DvP
Natürlich hat der GF100 dedizierte Tesselator-Einheiten (fixed function), und zwar je eine pro Polymorph-Engine:rolleyes: Da ist gar nix "Software"...

Wo finde ich diese Info? Es steht nur im Artikel, dass die Polymorph-Engine Tesselation beherrscht, aber das hab ich ja auch nicht bestritten.

Bzwgl. ATI oder nVidia "Optimierungen": Komisch, da steht nichts von DX10.1 beispielsweise. Dass durch die "Hilfe" bei der Entwicklung von nVidia vermehrt Techniken verwendet werden die auf deren Architekturen besser läuft, überrascht wohl niemanden. Die Existenz dieser Unterschiede wird kaum jemand negieren und daraus kann man auch schließen, dass es möglich wäre diese absichtlich den Spieleentwicklern zu umpfehlen natürlich verbunden mit anderen "Hilfestellungen". Ob das auch so passiert möchte ich nicht mutmaßen aber es gibt schon so einiges was darauf hin deutet. Natürlich auch in der anderen Richtung.
 
Zuletzt bearbeitet:
Zurück
Oben