News Bilder der finalen Nvidia GeForce GTX 680?

dergraf1 schrieb:
Heaven:

680-> 102fps
(7970)-> 98fps
670Ti -> 75fps
(7950) ->84fps

680 $600msrp
670ti $450msrp


http://hardforum.com/showthread.php?t=1678809&page=10

hier sieht das bild wieder anders aus..
sollten diese preise stimmen, dann haben zunächst die nvidia fanboys
aber auch andere sich umsonst auf kepler gefreut, denn dann würde amd seine preise auch nicht senken wollen.

Ich greif jetzt das nochmals auf, weils so schön ist. Da steht nämlich im Post auf dem hardforum explizit: "of course these numbers are completely made up and don't mean crap. Just posting in hopes that some naive non-english speaker/reader will see them and start re-posting them all over the net as possible truth "as seen on american forum!". Da dergraf offensichtlich noch kein Englisch kann, hier eine kurze Übersetzung: "natürlich sind die Zahlen frei erfunden, ich hoffe lediglich, dass irgend ein naiver, nicht dem Englisch mächtigen, Leser die Zahlen kopiert und in einem anderen Forum verbreitet" Muahaha, und da gibts doch tatsächlich Leute, die genau das machen :evillol:
 
Die 7950 wird er schlagen nur bin ich mir bei der 7970 nicht sicher, zum Verbrauch will ich jetzt erstmal noch nichts sagen ...
Es wird von 190W TPD ausgegangen.
Nvidia kann es sich nicht leisten jetzt hinter den beiden 79XX zu landen, das wäre der KO
 
@ hpc master

tja habe mir deine grafik angesehen ud schnell mit dem test von CB verglichen,
laut deiner grafik ist der unterschied zwischen bei Crysis 2
amd 79070 und gtx 580 34%
aber bei CB sind es immerhin 33%
also 1% unterschied bei 2560x 1600 und AA/16xAF

https://www.computerbase.de/artikel...hd-7970-test.1667/seite-36#abschnitt_crysis_2

also, ich weiß nicht was du willst,
du sollst doch die garfiken die du eingestellt hast, erklären und verteidigen
und nicht auf andere grafiken hinweisen,
oder dann eben sagen, das es üblich ist, das "beide hersteller" die grafiken zu ihren gunsten erstellen,
dann dürftest du dich aber auch nicht auf diese grafijen verlassen und mit:
Noch 8 mal schlafen, dann kommt der Weihnachtsmann... oder war's der Osterhase... am 22. März ?!?

kommen..
 
Kasmopaya schrieb:
Wann genau um wie viel Uhr ist denn jetzt NDA Fall?

bei der GTX580 wars 15:00 unsere Zeit ;)

dergraf1 schrieb:
und auf die optische täuschung der grafik nicht reinfallen..

das ist natürlich richtig, die Grafik selbst sieht mir dennoch an den Haaren herbeigezogen aus. ^^

Ralf T schrieb:
Nvidia will den GK110 launchen, aber aktuell ist es schlicht ein ergreifend nicht möglich. Das liegt sicher nicht nur am 28nm Prozess und die Folie die voriges Jahr aufgetaucht ist wo der GK110 frühestens Q3 2012 kommen soll stimmt bis jetzt. Launch für den GK104 war da April, das könnte für den Hardlaunch hinkommen.

ich denke auch, oft war ja nun von August die Rede. Es kommt auch immer darauf an ob sich Nvidia dazu genötigt fühlt diesen zeitnahe zu launchen. Jetzt mag das nicht gehen, aber selbst wenn man im August könnte, würde man ihn je nach wem wie sich GK104 zur Konkurrenz schlägt, sicher auch nach hinten schieben.
Nicht umsonst häufen sich die Gerüchte, dass Nvidia erstmal zeitnahe mit einer Dual GK104 Karte kommen will (GTX690) - genau wie AMD.

Das der Performance Chip eine 7970 in Schach halten kann bezweifle ich sehr stark. Das trau ich dem GK104 nicht zu, ich glaube eher dass sich der GK104 zwischen 7870 und 7950 einreiht. Eventuell bei Cherry Picked Games dass er eine 7970 schlägt, aber mehr wird da nicht drinnen sein.

Hm naja, es wäre gegen Nvidias Art auf kleine TDP zu setzen, unter der Konkurrenz, dann aber den namen GTX680 zu benutzen um langsamer zu sein ^^

Viel eher hätte man den Chip dann auf 250W TDP geprügelt um mit Ach und Krach davor zu landen.

Wie bereits gesagt, abwegig ist das nicht. Man sollte ja auch erkennen, dass die Tahiti per default recht viel Spannung anliegen hat, mit etwas Selektion sicher auch gut <190W TDP drin wären oder eben bis 20% mehr Leistung durch OC ohne wirklich den Verbrauch explodieren zu lassen.

Noch ein lustiges Gerücht ist natürlich dieses hier:

http://www.pcgameshardware.de/aid,8...h-in-GTX-680-flashen-lassen/Grafikkarte/News/

Spricht dafür, dass 670TI und GTX680 zeitgleich aufschlagen.
 
Zuletzt bearbeitet:
ankh@

wenn das ein fehler ist, dann sind doch die werte von 3Dmark 11 extreme auch fehler,
oder kannst du diese beweisen?

oder die anderen grafiken..?
ich verstehe nicht was das soll, meinen fehler wiederholst du mehrfach,
aber auf die widersprüche der grafiken von nvidia kein wort..
 
Was mich jedoch wundert, ist, dass auf den lustigen Balkendiagrammen kein Skyrim oder Anno 2070 angegeben ist, wobei doch grade die 7970 verglichen mit der 580 eine extreme Verbesserung darstellte.

Ist irgendwie auch kein richtiges Cherrypicking, sonst würden sie die "miesen" Werte bei CIV5 nicht zeigen.
 
@apocaliptica

wenn ich mich nicht irre, dann war die gtx 580 schon stark gegenüber der amd 7970 bei battlefield 3 und dirt 3,
und das sind die 4 balken mit den größten unterschieden,
wenn man diese 2 spiele rausnimmt, dann ist der unterschied bei 10% und das obwohl "nvidia grafik"
also nochmals einige % abziehen, dann sieht das hier "wir hatten mehr erwartet" lächerlich aus..

also habe mir die mühe gemacht und
108
107
105
117
108
114
116
104
97
114
112
von der grafik übernommen, gesamt 1202, dies durch 11 geteilt und das ergebnis :
9,3% ist die gtx 680schneller als die amd 7970
und dies "laut nvidia grafik"
 
Zuletzt bearbeitet:
Also wer an so eine Benchmarkfolie glaubt, der glaubt auch an den Weihnachtsmann zu Ostern aufm Surfbrett .. oder sowas. Also ich habe so eine Folie bisher nicht gesehen und kenn schon bissel was, deshalb lassen wir das mit einer News mal. Gerade jetzt mit paar richtigen Zahlen gibt es auch gern mal ordentliche Fakes dazu. ;)

Das Cherry-Picking beim Hersteller-Benchmark normal ist, dürfte jedem klar sein. Denn da wird ja nichts falsches erzählt, sondern eben nur das beste rausgesucht, wo die Konkurrenz zudem noch am schlechtesten dasteht. AMD hat so mit den kleinen Karten mit 2 GByte Speicher in unrealistischen 2560 mit max AA/AF natürlich gezeigt das man Nvidia schlagen kann, da denen mit 1,x GByte der Speicher ausgeht. Realistisch? Niemals halt. Normal? In jedem Fall! Da nehmen sich die Hersteller halt alle nichts.
 
das mit 15:00 kommt daher, dass der Hauptsitz von nvidia in Kalifornien ist -> Zeitverschiebung 9 Stunden -> Arbeitsbeginn 06:00 Uhr folglich damals ^^ ?
Ich tippe eher auf 18:00 MEZ
 
Es wurde wohl noch nie etwas 18 Uhr deutscher Zeit gelaunched. Schau mal auf die letzten Jahre zurück, welche Uhrzeiten Artikel erschienen sind. Wenn man daran kein Muster erkennt, nunja, dem kann man nicht helfen^^
 
Was mich jedoch wundert, ist, dass auf den lustigen Balkendiagrammen kein Skyrim oder Anno 2070 angegeben ist, wobei doch grade die 7970 verglichen mit der 580 eine extreme Verbesserung darstellte.

Und dann wundert dich das? Mich also nicht. ;)

Ist irgendwie auch kein richtiges Cherrypicking, sonst würden sie die "miesen" Werte bei CIV5 nicht zeigen.

Das ist simple Objektivitätsheuchelei. Und beweist gerade dadurch das ganze Ausmaß des Cherrypickings.
 
Edit:

der erste Ausführliche Test einer Kepler GPU:

http://www.anandtech.com/show/5672/acer-aspire-timelineu-m3-life-on-the-kepler-verge/4


GeForce GT 640M
Codename GK107
Shaders 384
Kerntakt 625 MHz
Speichertakt 900 MHz (DDR3)
Bus 128 Bit

GeForce GTX 560M
Codename GF116
Shaders 192 - unified
Kerntakt 775 MHz
Shadertakt 1550 MHz
Speichertakt 1250 MHz GDDR5
Bus 192 Bit

Folglich hat Kepler kein Hot Clock

Die Werte überraschen und fallen wie ich finde sehr gut aus wenn man das kleine SI und DDR3 berücksichtigt. ~75% der Performance einer GTX 560M, bei doppelter Shader Zahl und den Einbußen durch SI und Ram sowie deutlich niedrigerer Taktung.

Scheint als wäre der Umrechnungsfaktor in etwa 2:1 (Shader alt / Shader neu) um etwa gleich zu ziehen.

Selbst wenn wenn die Umrechnung bezogen auf Leistung etwa 3:1 wäre, wäre ein GK104 wohl mit einem GF110 auf ~1 Ghz gleich zu setzen was für die HD7970 reichen dürfte.

Wenn man mit 2:1 rechnet ergäbe sich mit 1536 Kepler Shadern in etwa die Leistung von
768 Fermi Shadern mit Hot Clock. Diese auf 1000 Mhz würden schon ganz schön rocken.


44875.png


44879.png


44882.png


44888.png


44891.png



Ganz unabh davon scheint Optimus zu rocken.

44848.png
 
Zuletzt bearbeitet:
Achso, du meinst praktisch, dass die das absichtlich reinmachen um du "verdecken", dass sie cherrypicking machen? :D
 
44864.png


What's interesting is seeing how the 640M's 384 CUDA cores compare to the GTX 460M/560M in practice, both of which have just 192.

Nochmal die Daten der GTX 460M ergänzend:

GeForce GTX 460M
Codename GF106
Shaders 192 - unified
Kerntakt 675 MHz
Shadertakt 1350 MHz
Speichertakt 1250 MHz GDDR5
Bus 192 Bit

Beiden sind im 3D Mark 11 nahezu gleich schnell.


Edit:

Zu den Mobilen Ablegern gibts auch hier interessante Werte:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=522730
 
Zuletzt bearbeitet:
7970 ist wohl deutlich die Intessantere Karte mehr Speicher und ein größeres SI was die Karte auch bei hohen Settings wohl nicht so leicht einbrechen lässt. 5% performance in cherry picket benches hin oder her wenn juckt das. Von Crossfire oder eben Dual Karten NV SLI mit 2x2 GB oder 2x3 GB bei der 7970 gar nicht zu reden.
 
Zuletzt bearbeitet:
Motkachler schrieb:
7970 ist wohl deutlich die Intessantere Karte mehr Speicher und ein größeres SI was die Karte auch bei hohen Settings wohl nicht so leicht einbrechen lässt. 5% performance in cherry picket benches hin oder her wenn juckt das. Von Crossfire oder eben Dual Karten NV SLI mit 2x2 GB oder 2x3 GB bei der 7970 gar nicht zu reden.

schön, dass du das schon alles weißt, du kannst das ja dem Volker sagen, dann brauch er erst garkeinen test mehr zu schreiben.
 
Kepler wird ein Rechenleistungsmonster. 3DMark11 ist ein reiner "Compute"-Benchmark. Und dort ist Kepler anscheinend doppelt so schnell als die Vorgängerkarte. Da es unter 40nm aber nie einen Chip ala GF114x2 gab, wird GK104, der anscheinend genau das ist im übertragenen Sinne, das werden. Und somit locker die 7970 schlagen.

Und geht man nach den Computerbase Tests der letzten Monate, entspricht der Abstand im 3DMark ungefähr auch dem durchschnittlichen Abstand aller Spiele bei nVidia-Karten.

Man, ich bin so gehypt. :evillol:
 
Volker schrieb:
Es wurde wohl noch nie etwas 18 Uhr deutscher Zeit gelaunched. Schau mal auf die letzten Jahre zurück, welche Uhrzeiten Artikel erschienen sind. Wenn man daran kein Muster erkennt, nunja, dem kann man nicht helfen^^

PREESTYLE schrieb:
das mit 15:00 kommt daher, dass der Hauptsitz von nvidia in Kalifornien ist -> Zeitverschiebung 9 Stunden -> Arbeitsbeginn 06:00 Uhr folglich damals ^^ ?
Ich tippe eher auf 18:00 MEZ

na gut wenn du das sagst dann wird es wohl stimmen ^^
 
Zuletzt bearbeitet:
Alle die den Thread verfolgt haben wissen schon was die karten können. !

680 GTX 45 % vor einer 7970 450 bis 500 Euro
670 TI 20 % vor einer 7950 350 bis 400 eruo

Ich Wusste vor PCGH, das beide karten kommen. !
und die auf dem bild gezeigte karte ist nicht die 680 GTX. ich wiederhole nicht die 680GTX,
es ist die 670 TI. Beide Karten Stehen am 22 März
zur Verfügung.

P.s Bei den Preisen bin ich mir nicht sicher !!!
mir wurde das so gesagt bei A.......e Die Preise meine ich damit.
 
Zuletzt bearbeitet:
680 GTX 45 % vor einer 7970 450 bis 500 Euro
670 TI 20 % vor einer 7950 350 bis 400 eruo

meinst du nicht, dass das ein wenig optimistisch ist ?
Wenn du dir so sicher bist, dann hast du sicherlich auch auf dem Bild auch die "5" und nicht die "6" gesehen.
 
Zuletzt bearbeitet:
Zurück
Oben