News Nvidia: „Haben mehr von AMDs Radeon HD 7900 erwartet“

Sontin schrieb:
Woot? Der Front-End Aufbau von Evergreen ist einfach unbrauchbar für Tessellation. Siehe HAWX2, siehe Crysis 2, siehe Batman AC. Da bekommt man heutzutage mit einer GTX480 massiv viel mehr Leistung. in Batman AC ist z.B. eine GTX480(=GTX570) 80% schneller:

Zu dem Thema gibt es einen sehr interessanten Artikel hier:

http://techreport.com/articles.x/21404/1

Somit stellt sich die Frage: Ist die Tesselationsleistung einer Evergreen wirklich zu schwach oder eher sinnvoll dimensioniert, während Fermi einfach überflüssig viel Tesselationsleistung hat, die optisch nicht mehr gewinnbringend eingesetzt werden kann, aber ein gutes Mittel darstellt um das Konkurrenzprodukt künstlich einzubremsen?

Jedenfalls lässt dies das Hinzufügen des Tesselationsqualitätsschalters im CCC in neuem Licht erscheinen.
 
TechEye has heard Nvidia has been asking hacks why the reviews have been so good.

Nvidia absolutely denies the rumour which suggests representatives have been asking journalists to file a short report on what is exactly so great about the 7950. Whether or not Nvidia is canvassing reviewers, there may be reasons the Green Goblin would like hacks to do its homework for it.
Quelle
:lol:
 
Drifter! schrieb:
Zu dem Thema gibt es einen sehr interessanten Artikel hier:

http://techreport.com/articles.x/21404/1

Somit stellt sich die Frage: Ist die Tesselationsleistung einer Evergreen wirklich zu schwach oder eher sinnvoll dimensioniert, während Fermi einfach überflüssig viel Tesselationsleistung hat, die optisch nicht mehr gewinnbringend eingesetzt werden kann, aber ein gutes Mittel darstellt um das Konkurrenzprodukt künstlich einzubremsen?

Jedenfalls lässt dies das Hinzufügen des Tesselationsqualitätsschalters im CCC in neuem Licht erscheinen.

Kennst du noch die Geforce 5800 und 5900 Karten? Die brachen mit FP32-Berechnungen immer schön ein. Jedoch waren sie in Halo ziemlich konkurrenz zu den r3xx Karten. Und warum? Weil Halo nur FP16 für Berechnungen verwendet hat, was den CineFX Karten wesentlich besser lag. Das ist hier das selbe in rot. Evergreens Front-End ist einfach zu schwach, um überhaupt Tessellation in solch einem Stil wie in Crysis 2 oder Batman:AC anwenden zu können. Und wie man an Tahiti sieht, ist Tessellation in Crysis eben überdimensioniert, denn Tahiti behauptet sich ziemlich gut gegen die GTX580.
 
@SirDunHill

dann erklär dem Rest der Welt bitte, wie auf deinen "No Fakes" eine GTX 570 doppelt so schnell sein kann wie eine 560 Ti oder wie man BF3 mit PhysX testet, oder wie eine 590 die 60 FPs anpeilen kann.
Zum Vergleich kannst du gern die Benchmarks von CB oder TweakPC nutzen. Da steht im allgemeinen etwas anderes.

Also Fake.

No Noobshit anymore, pleeze
 
Alienate.Me schrieb:
eine GTX580 schafft laut folie knappe 40fps in ultra bei der auflösung. im CB test z.B. sind es 29fps.
da wird schon die GTX580 25% schneller gemacht, als sie ist.

Ich find beim besten Willen keinen BF 3 test mit gtx 580 und den einstellungen ... gib mal nen link...

Ich will ja nicht als basher gelten, darum hier mal was ich dazu gefunden hab:
http://www.gamestar.de/spiele/battl...efield_3_im_benchmark_test,45612,2561754.html
BF3 unter den einstellungen gtx 580: 38,8 fps

http://www.tomshardware.de/radeon-hd-7950-overclock-crossfire-benchmark,testberichte-240951-6.html
33,25 fps

Scheint also auch stark am restlichen system zu hängen
 
Zuletzt bearbeitet:
die gtx schafft ihre 58 fps steht ja auch da . hast ja test gepostet bloß ich gehe immer von full hd einstellung aus und nicht drüber. und auf max und 1900x1600 schafft die gtx 580 fast 60 fps bei bf3. sorry das ich das nicht erwähnt habe das ich nur auf der full hd auflösung meine bzw die test die ich gepostet habe auch nur auf den einstellungen liefen.

und ja klar hängt das restliche sytem mit dran gk ist schnller wenn der cpu auch schnller ist usw. nur schnelle gk bringt nichts wenn der prozi die gk ausbremst oder andresrum.

hier kann man auch gks vergleichen viel spaß ;)

http://ht4u.net/reviews/2011/msi_n560_gtx_ti_hawx_test/index33.php?dummy=&advancedFilter=false&prod[]=NVIDIA+GeForce+GTX+580&prod[]=AMD+Radeon+HD+6970&filter[0][]=1920&filter[2][]=4&filter[2][]=8&filter[2][]=MLAA&filter[2][]=SSAA+%282x2%29&filter[3][]=1&filter[3][]=4&filter[3][]=16&aa=on
 
Zuletzt bearbeitet:
Aber auch nur OHNE qualitätssteigernden Features:

CB: BF3 ohne AA, AF: GTX580 erreicht 68.6 FPS, mit AA und AF nur noch 44.3 FPS
TH: ohne AA, AF: 71.4, mit AA noch 57.8 FPS (fragwürdig, was da eingestellt wurde...)
Guru3D: ohne AA, AF: nicht verfügbar, mit AA, AF: 43 FPS
PCGH: ohne AA, AF: nicht verfügbar, mit AA, AF: 39 FPS
GS: ohne AA, AF: 58.1 FPS, mit AA, AF: 44.7 FPS
usw.

Fazit: ohne AA und AF erreicht die GTX580 auf einem aktuellen System die 60FPS mit FullHD Auflösung, richtig. Sobald aber qualitätssteigernde Features zugeschaltet werden, bricht die Leistung auf 40FPS ein. Dazu darf man nicht vergessen, dass all diese Benchmarks auf dem BF3 Vanilla im Singleplayer gemacht wurde, auf den B2K Maps reduziert sich die Performance dann nochmals, ganz zu schweigen von 64er Maps...
 
SirDunHill schrieb:
das erste ist ja die neuen amd grafikkarten sind gut aber viel zu teuer amd wird immer teurer was neue gks angeht.was ich auch mies find eist immer diese künstliche preiserhöung indem sie einfach erstmal wenig ausliefern. angebot+nachfrage= preis . man innert sich die hd 4870 neu damals 200€ jetzt kostet die das dreifache neu.das sind jetzt 3 jahre dazwischen wieso wird ein produkt so teuer in 3 jahren .
Ah ja, du glaubst also, dass AMD freiwillig weniger GPUs ausliefert? :lol:
Ist dir schon mal in den Sinn gekommen dass ihr Fertiger einfach nicht mehr herstellen kann?
Und die 4870 ist nen ganz schlechtes Beispiel. Die war gerade nmal so schnell wie in Nvidias zweit schnellstes Produkt am Markt. Jetzt sind ihre Karten leicht bis deutlich schneller als die Konkurrenz. Warum sollte man dann die Karten verramschen? Man verlangt immer den maximalen Preis den man bekommen kann. Wenn Nvidia ihre Karten bringt und schneller ist, dann fallen auch die Preise der AMD-Karten und wenn TSMC eine gute Verfügbarkeit zulässt, geben die Preise auch nach.
 
Ich find beim besten Willen keinen BF 3 test mit gtx 580 und den einstellungen ... gib mal nen link...
Click

edit:
beim gamestar test z.b. ist fxaa aus. im ultra-setting ist es aber an ;) wenn du eine seite weiter clickst in deinem link, siehst du auch die 29fps bei der 580 ^^
Ergänzung ()

Click

mitlerweile tritt auch semiaccurate auf die bremse und behauptet nun, dass kepler nur in bestimmten anwendungen schneller sei als tahiti und die gaming performance gleichauf mit AMD liegen wird. auch soll der shaderaufbau komplett unterschiedlich zu fermi sein und eher dem von tahiti ähneln, was auch in einer ähnlichen performance resultieren soll.
das hauptaugenmerk der karten liegt auf GPGPU und da stampft tahiti fermi in den boden mit 400%+ in manchen benches. da muss sich kepler dann beweisen.

nichts desto trotz wird NV am ende die schnellere karte haben, da heiligt der der zweck die mittel.
 
Zuletzt bearbeitet:
Alienate.Me schrieb:
nichts desto trotz wird NV am ende die schnellere karte haben, da heiligt der der zweck die mittel.

Und einige Monate später wird AMD wiederum ne schnellere Karte haben (HD8K in 28nm bestätigt).
Macht also im Endeffekt keinen Unterschied, ob man im Januar ne HD 7970 gekauft hat, im Juni (?) ne GK110 kauft oder im Oktober (?) ne HD 8970.
 
Alienate.Me schrieb:
https://www.computerbase.de/artikel...re-test.1680/seite-24#abschnitt_battlefield_3mitlerweile tritt auch semiaccurate auf die bremse und behauptet nun, dass kepler nur in bestimmten anwendungen schneller sei als tahiti und die gaming performance gleichauf mit AMD liegen wird.

Also Charlie hat sich damit überhaupt keinen Gefallen getan.
Im 3DCenter Forum wird auch schon ordentlich veräpplet.
Wie schrieb einer so schön: "Entweder hat er seine versprochenen Scheck von NV nicht bekommen, oder AMD hat nach den Umstrukturierungen endlich den üblichen Scheck geschickt."

Ist ja auch langsam lächerlich, die Nummer von Char_LIE. Er haut der GK104 alles locker speilend weg, hat er mit eigenen Augen gesehen, kalrer Gewinner ausgemacht usw.
Das vom NV Hater schlachthin und jetzt plötzlich komt sein Ruderboot beim rückwärts rudern ins gleiten ....:freak:

Wenn man jetzt noch die weitere Gerüchteküche hört, das GK110 mehr auf HPC optimiert worden sein soll und man als Gamer nicht so viel davon erwarten soll, platzt die ganze Seifenblase von der NV Allmacht auf einmal.

Sch..... herrumspekuliererei und Möchtegern Wisser wie Char_LIE oder OBR. Ist doch einfach lächerlich.

Wollt Ihr die Daten von Keppler haben?
Mit Performance, Erscheinungsdaten, Preis?
Kein Problem, bitte schön:
http://lenzfire.com/2012/02/entire-nvidia-kepler-series-specifications-price-release-date-43823/




Ja, das ist ein schlecht gemachter Fake, bevor hier wieder einige ganz aus dem Häuschen sind :freak:
 
Und einige Monate später wird AMD wiederum ne schnellere Karte haben (HD8K in 28nm bestätigt).
Macht also im Endeffekt keinen Unterschied, ob man im Januar ne HD 7970 gekauft hat, im Juni (?) ne GK110 kauft oder im Oktober (?) ne HD 8970.

Hardware wird gekauft, wenn sie gebraucht wird !

Klar lohnt es sich je nach Situation die 1 bis 3 Monate mal zu warten, aber man sollte wirklich nicht länger als 3 Monate oder geschweige sogar Halbjahre warten. Wer nur wartet, zockt heute noch mit seiner Vooodooo.
 
@spike93
Ich sprach nicht davon, zu warten. Sondern davon, dass zu jedem Zeitpunkt die Diskussion aufflammt, dass eine Grafikkarte in "einigen" Monaten erscheint, die die aktuellen schlägt. Jetzt ist die HD 7970 die schnellste und diskutieren darüber, dass GK110 schneller wird.
In vier Monate oder fünf Monaten erscheint dann die GK110...und wir diskutieren dann über die HD 8970, die die GK110 schlägt.
 
Zuletzt bearbeitet:
Gibt es eigtl. schon Infos wann die neuen Karten von nVidia kommen? :)
 
Ja, das ist ein schlecht gemachter Fake, bevor hier wieder einige ganz aus dem Häuschen sind

sieht doch eigtl. glaubhaft aus das ganze, ist aber nur ein gerücht. solange man nicht weiß in welchen bereichen oder in welcher software diese werte erzielt wurden, sagen sie auch nichts aus. nehme ich jetzt Anno 2070 als bsp. könnte ich auch behaupten, die 7970 sei 76% schneller als die GTX580 oder nehme ich Bitminig als vergleich könnte ich sogar sagen, die 7970 hat 400% mehr leistung als die GTX580.

solange nicht breit gefächerte tests gemacht wurden kann man die werte auch nicht einstufen.
 
Also Nvidia ist eigentlich völlig berechtigt, mehr von der neuen 28nm Architektur(Tahiti XT) zu erwarten, zumal es auch sehr viele User getan haben...

Sehen wir die Sache dochmal neutral...

Die GTX 580 ist das derzeitige Flaggschiff von Nvidia. Also nehmen wir sie mal für unser Beispiel.

In Benchmarks sieht man, dass die GTX 580 ca. "nur" 10-15% hinter der HD 7970 liegt. Die HD 7950 liegt sogar hinter der GTX 580, was eigentlich undenkbar ist.
Dazu kommt noch, dass die HD 7950 teilweise sogar hinter der GTX 570 liegt, solange es der Vram zulässt...
Da wären wir auch schon beim Knackpunkt! Die HD 7000 Serie schneidet in manchen Spielen nur wegen dem so hohen Vram ab. Die 1,5 GB der GTX 580 sind schon in Battlfield 3 @ Ultra ausgelastet bei einer Auflösung von FullHD.
Wohingegen die 3GB Vram der HD 7970 selbst bei Auflösungen von über 2560x1600 @ Ultra in Back to Karkand Maps nicht voll ausgelastet wird. Die fehlenden paar GB Vram der GTX 580 sind allerdings nicht auf das versagen von Nvidia zurückzurufen, da EVGA und viele andere Hersteller schön zeigen, dass man sie auch durchaus in 3GB Varianten verkaufen könnte!
Dieser größere Speicher würde der GTX 580 nochmal paar FPS mehr bringen... Der unterschied zwischen HD 7970 und GTX 580 fällt durchschnittlich ohnehin nur um 10-15 % aus. Das würde heissen 45fps statt 40...

Man beachte nun, dass es sich um eine neue Architektur handelt!
28 nm statt 40 nm, das ist ein großer Unterschied.

Wenn eine neue Generation, nur ca. 10-15% mehr Leistung bietet als eine älterere Generation und dass auchnoch teilweise durch größereren Speicher, ist es sehr wohl eine Enttäuschung.

AMD hinkt ausserdem immernoch in Sachen Tesselation und Kantenglättung(Anti-Aliasing) hinterher. Das hätten sie verbessern sollen! Dies wird in kommenden Spielen immer gefragter und entscheidender in Punkto Performance...
Gut, AMD hat mit ZeroCore und Co, sehr viel in Sachen Leitung(Verbrauch), Temperatur und Lautstärke geändert, wohlbemerkt zum sehr viel bessereren, aber was bringen uns diese Punkte bei einer High-End Karte?
Wer von euch achtet am ende des Monates/Jahres ob da 50€ oder 60€ steht? Letzendlich würde dieser geringere Verbrauch sich in vorm von 3 Chassis Fans oder einem offenen Licht, 15 Kugeln Eis bemerkbar machen. Da geht sowieso einiges in die Tonne, wenn man ehrlich ist, Effizienz und Co. machen es auchnochmal deutlich.

Lautstärke, SEIT MAL EHRLICH, IST EUCH DAS WICHTIG? Ihr habt zu 90% sowieso alle Kopfhörer auf, ausserdem ist die Lautstärke einem bei einem HighEnd System sowieso egal, nicht? Falls nicht, schraubt jetzt sofort alle euer Gehäuse auf und reisst die 3 Chassis Fans raus! Ohne gehts auch... Falls ihr aber Übertakten wolltet und ihr deswegen die Chassis Fans drinne habt, ist euch der Lärm wahrscheinlich sowieso egal, nur wahrscheinlich, gibt auch andere.

Temperaturen, WoW, interressieren niemanden, greift doch sowieso niemand rein oder? Letzendlich ist das erst beim Übertakten wichtig,... aber dann richtig, also das ist ein klarer Plus Punkt!

Die Übertaktbarkeit scheint sehr gut zu sein, lässt aber auf die guten Lüfter von Saphire, etc. zurückzuführen und letzendlich waren bis jezt 200mhz drinne...
Das hat die GTX 580 mit ner Windforce x3 auch geschafft... ausserdem ist dies wohl eher auf die einzelnen Grafikkarten Hersteller EVGA, Gigabyte, IceQ, usw. zurückzuführen, da Nvidia und AMD selber wohl garnichts mit den Lüftern, die die einzelen Hersteller verbauen, zutuen haben.



Es wäre da wohl mehr von AMD zu erwarten gewesen...

Die GTX 680 wird wohl nochmal 30-40% vor der GTX 580 liegen, den Nvidia handelt nach TickTock...
Das würde heissen, dass wieder ein solcher sprung wie von GTX 280 auf GTX 480 erwarten ist. Die GTX 480 im gegensatz zur GTX 280 hatte fast 100% mehr Leistung...
Da sowas aber nicht von der GTX 680 erwartbar ist wird es wohl bei 30-40% bleiben im gegensatz zur GTX 580.
Das ist aber nur meine eigene Erwartung, da ich leider keine Glaskugel habe die HokusPokus macht...

Die 7xxx Reihe ist im Groben und ganzen eine sehr gelungene Reihe, welche wohl vorallem für Gamer mit mehreren Monitoren sehr interresant ist! Eine Kombination aus EyeFinity, CrossFireX, VIEL Vram und einer mit guter Kühlung guten übertaktbarkeit, macht es sogar möglich Battlfield 3 in Ultra auf 3 Monitoren flüssig zu spielen, natürlich auf 5760x1080... Auch auf einem Monitor ist sie gelungen, wer vor hat seine Grafikkarte über viele Jahre hinweg drinne zu lassen KÖNNTE in den Jahren durch den geringen Verbrauch, das Geld gespaart haben um sich statt eine 200€ eine 400€ Grafikkarte leisten zu können.

Aber dennoch war in Punkto Leistung mehr zu erwarten. Nicht viel mehr, aber das wurde im Interview auch nicht gesagt.

Zum Ende muss man den ganzen Nvidia kritisierenden klar machen, dass AMD auch nicht grade viel mehr als heisse Luft gesagt hatte. Und dass obwohl sie schon beide Endprodukte in der Hand hatten.
Nähmlich die besagten 60% im gegensatz zur GTX 580... 60% sind sicher nirgendwo gewesen, das war klare runtermacherei was sich AMD da geleistet hat, aber da gab es keinen großen Aufstand wie bei der Kritik von Nvidia gegenüber AMD... Macht nochmal deutlich, dass AMD momentan die meisten Fanboys hat, also generell, nicht nur in diesem Thread.
 
Ich achte auf dem Stromverbrauch und mir ist das auch wichtig... genau wie die Lautstärke, die meine Freundin stört wenn sie daneben TV guckt...

Ob mehr von AMD zu erwarten gewesen wäre, wird sich erst zeigen, wenn man weiß was nvidia zu Stande bringt. Vorher ist alles absolut reine Spekulation.

Solange in Foren solche Mythen wie "Radeon kann nicht mit Intel" und "AMD hat schlechte Treiber mit denen kein Spiel läuft" kursieren, ist es absolut nicht angebracht davon auszugehen, es gäbe mehr AMD als Nvidia Fanboys.

Ich behaupte mal, die meisten AMD Käufer, ich auch, kaufen das, was gerade nach P/L oder vllt auch mal, wie jetzt, nach Leistung vorne liegt. Viele Nvidia Fanboys verabscheuen AMD zu tiefst und würden NIE sich eine solche Karte reinsetzten. Von diesen "hatern", gibt es verdammt viele, von AMD findet man da eher weniger.
 
Zuletzt bearbeitet:
Mumbira hat´s erkannt.
Aber dass kann man auch nur wenn man schon viele Generationen miterlebt hat.
 
soul4ever schrieb:
Viele Nvidia Fanboys verabscheuen AMD zu tiefst und würden NIE sich eine solche Karte reinsetzten. Von diesen "hatern", gibt es verdammt viele, von AMD findet man da eher weniger.

da täuscht du dich wohl etwas, auch auf der anderen seite sind es nicht weniger spinner ;).
 

Ähnliche Themen

Antworten
98
Aufrufe
18.032
boxleitnerb
B
Zurück
Oben