News Nvidia: „Haben mehr von AMDs Radeon HD 7900 erwartet“

also mal ernsthaft, ohne fanboy gehabe usw.
nvidia ist unrentabel.begründung:

eine 500 euro karte (weniger werden die neuen nvidias auch nicht kosten, sondern ehr mehr), sollte stromeffizent sein. das sind die nvidias nicht!
ebenso sollte eine so teure graka kühl genug sein, das sind die nvidias definitiv auch nicht.

ich kann mich über beide graka hersteller nicht großartig beschweren, aber die letzte gute graka reihe von nvidia war die 200er serie. der rest war für mich überteuerter schrott, deshalb bin ich wieder zu amd gewechselt und habe mir eine hd 6950 gehohlt. und diese schmiert in extrem hohen auflösungen nicht ab wie die 400er oder 500er serie von nvidia. also gibt es für mich momentan nur eine lösung, und die heisst nicht nvidia.

und solange mich die neuen nvidias nicht vom gegenteil überzeugen wird sich an meiner meinung auch nichts ändern.
 
Zuletzt bearbeitet:
Wenn du jetzt schon weist wie effizient, kühl und teuer die neuen Karten werden, dann kannst du uns doch sicherlich auch mehr Details zu den Karten geben.
 
@OldDirtyBastard du sagst es ,das war auch mein reden ,die 200er Serie Nvidia war ok,der Rest was danach kam zu teuer und oder zu hitzig usw. !!

Aber gut es sei drum,das jeder seine Meinung hat dazu . ;)
 
die Aussagen sind nicht mit Vorsicht zu genießen, die sind schlicht zu ignorieren.

Solange die keine Karte vorgestellt haben, ist das ganze doch nur trübes Fischen.
 
@bensen

ich beschäftige mich schon sehr lange mit grafikkarten, da ich sehr viel spiele. und nvidia war noch nie vorreiter für effizienz! und auch das wird sich mit denn neuen nicht ändern.

und wenn es auch viele nicht wahr haben wollen, man merkt an der stromabrechnung am jahresende ob man eine amd highend karte hat oder eine nvidia. und der unterschied ist gewaltig!!!
 
Zuletzt bearbeitet:
Leistung kann immer ruhig viel vorhanden sein, nur der Energiehunger könnte ruhig mal in Angriff genommen werden, darauf sollten die Hersteller auch einen Fokus legen.

da finde ich, hat sich die HD7 jetzt schon bewiesen. undervoltet kommt ein gesamtsystem mit 7970 CF auf 440W verbauch! da reicht ein gutes 500W NT für CF, das ist schon erstaunlich. ich gehe stark davon aus, dass die 7800er effizienzbestien werden.

wenn an den ganzen wilden gerüchten um GK104 stimmen sollte, dass dieser 225W verbrät und die leistung einer 7970 haben soll, dann verschlingt GK110 einfach zu viel, auch wenn die mehrleistung stimmt.
das wäre dann aber auch high-end, wie es sein sollte.
 
Soviel dazu, dass nVidia schon immer den Grafikkarten Markt dominieren würde :

https://www.computerbase.de/2006-08...950-crossfire/22/#abschnitt_performancerating

https://www.computerbase.de/2004-12...tinum-edition/14/#abschnitt_performancerating

https://www.computerbase.de/2003-10...roundup/12/#abschnitt_synthetische_benchmarks

Das gleiche gilt genauso für die Radeon HD 5870 und für die Radeon HD 7970.
Denn ATi/AMD kann nichts dafür, dass NV es nicht schafft, eine Grafikkarte zeitnah auf den Markt zu bringen und es dann nur schafft, die Performance-Krone mit einer Leistungsaufnahme jenseits von Gut und Böse und niveaulosen PR Aktionen wie dieser zu erkämpfen .
 
Zuletzt bearbeitet:
Dann ist es ja ein leichtes Kepler zu bewerten, sollte Kepler die HD 7970 nicht in Sachen Performance per Watt/Leistung etc etc. haus hoch schlagen können, hat NV mal die Klappe wieder zu weit aufgerissen. Aber das Marketing sagt ja eh immer genau das Gegenteil was wahr ist, genau das gleiche zu DX 11; HD 5800 etc.
Und weil die HD 7970 so schwach eingeschlagen hat wird der Umsatz gleich mal angehoben, ne wartet, er geht unerwartet runter, ja was denn nu: https://www.computerbase.de/2012-01/nvidia-senkt-umsatzprognose-fuer-das-laufende-quartal/

Marketinggeblubber vom feinsten.
 
Zuletzt bearbeitet:
PiPaPa schrieb:
:rolleyes: Mal lieber informieren, bevor man so einen Stuß schreibt.

Selbst wenn Kepler nur ein simpler Shrink wäre (was laut nVidia nicht der Fall ist) könnte man die Leistung erahnen.

520mm² / 40nm * 28nm = 364mm²

Ein GF110 mit 512 Shadern würde demnach auf einen kleinen Chip wie der einer GTX 560 Ti passen.

512 Shader / 364mm² * 520mm² = 731 Shader

Dementsprechend würden bei einem gleich großen Die theoretisch 731 CUDA Cores drauf passen (natürlich ist so eine krumme Zahl unrealistisch, deswegen auch nur theoretisch).

Taktraten entsprechend dem Stromverbrauch anpassen und schon hätte man geschätzte 30-50% Mehrleistung aus einem simplen Die-Shrink.

Wenn jetzt noch die neue, mit großer Wahrscheinlichkeit noch leistungsstärkere Architektur hinzukommt, dürfte die Karte nochmals schneller sein.
Wenn jemand wirklich glaubt, dass der GTX 580 Nachfolger langsamer als eine HD 7970 sein wird, der ist naiv.

Die Performance/Watt bzw. der Stromverbrauch ist natürlich eine ganz andere Geschichte.
Theoretisch hätte AMD ja die Karte weitaus höher takten können, z.B. 1100 Mhz, dann wäre die Karte gute 20% schneller und würde (laut CB Test) ca. 35W mehr verbrauchen was noch ziemlich im grünen Bereich liegen würde wenn man betrachtet wie sparsam die 7970 ist.

Im Endeffekt kommt alles auf die Priorität des Herstellers an. Es ist auch immer die Rede was für ein Stromfresser Fermi etc. ist obwohl es TOTALER QUATSCH ist da es schlicht und ergreifend daran liegt, dass nV unbedingt die Performance Krone haben will und diese Karte entsprechend so leistungsstark und stromfressend auslegt.

nVidia hätte auch bei der GTX 580 hingehen können und den Takt samt Spannung in den Keller schrauben können. Dann wäre die Karte eben "nur" so schnell wie eine HD 6970 und der Stromverbrauch wäre nicht mehr nennenswert höher, wenn überhaupt.

Umgekehrt hätte AMD die HD 6970 entsprechend deutlich höher Takten können sodass sie leistungsmäßig mit der GTX 580 konkuriert; der Stromverbrauch würde aber dementsprechend auf ähnliche Regionen ansteigen...
In Wirklichkeit unterscheidet sich der Stromverbrauch der beiden Konkurrenten bei gleicher Leistung so gut wie gar nicht, die Karten werden nur anders ausgelegt und das begreifen 90% der Leute nicht.


Marius schrieb:
Ich halt es nicht mehr aus und muß es sagen:
Ich sehe viele, viele hochinteressante Paletten bei uns rumstehen...leider undurchsichtig verpackt, aber der Lieferschein spricht. :D
Nix mit Paperlaunch, darum sah man auch nix auf der CES.

Im Ernst? :eek:

Bist du bestechlich? :p
 
Zuletzt bearbeitet:
Während man bei Nvidia noch Sprüche klopft, arbeitet man bei AMD schon an der nächsten Generation. Irgendwie muß man ja scheinbar Aufmerksamkeit erregen, aber das Niveau ist unterirdisch, dennoch nicht untypisch für Nvidia.
 
Um ehrlich zu sein, konnte man doch auf sowas in der Art schon warten :D irgendwie wollen die Leute ja bei Laune gehalten werden wenns mal wieder länger dauert

Wenn man seine Karten erst Monate später bringt, dann sollte man auch eine Leistungssteigerung erwarten dürfen - und nebenbei n guten Stromverbrauch ;)
 
es ist noch nie eine kunst gewesen eine bessere grafikkarte zu bauen wenn man viel später damit rauskommt. so wie es aussieht wird das ja nie was vor 3 monaten und damit mehr entwicklungszeit. zumal sie jetzt noch gezielter handeln können.

wirklich komisch ist jedoch bisher die schlechte BF3 Performance
 
Zuletzt bearbeitet:
Einen großen Vorsprung vor der GTX580 konnte die 7970 ja nicht hinlegen. Für Nvidia sollte es leicht sein die Karte zu toppen.
 
Wenn jemand wirklich glaubt, dass der GTX 580 Nachfolger langsamer als eine HD 7970 sein wird, der ist naiv.

ich denke doch, dass den meisten bewusst ist, dass NV eine schnellere karte abliefern wird. die frage dabei ist, wie viel schneller. ist sie "nur" 30% schneller als eine 7970, dauert es keine 2 tage bis es eine AMD gibt, die schneller ist als die GTX780(?). die +30% krieg ich schon mit standardkühler hin. sollte für AMD kein prob sein besseres durch selektion und optimierung hinzubekommen.

wirklich komisch ist jedoch bisher die schlechte BF3 Performance
generell die performance der 7970 ist komisch. im vergleich zur 580 ergeben sich differenzen von +79% bis hin zu -10% in den anwendungen. sind die treiber noch zu unausgereift für GCN, oder sind es erst anwendungen die auf die architektur optimiert werden müssen?

vieles an der 7970 wirkt noch im beta stadium :)
 
Zuletzt bearbeitet:
OMG sowas hätte man sich sparen können....
NVIDIA muss erst mal nachlegen, wenn sie könnten hätten sie schon getan oder?
Nun bastelt man noch 6 Monate in Worten: SECHS Monate und meint in der Zeit stehen bei AMD die Entwicklungen still?
Natürlich sollten Neuerscheinungen immer schneller sein, aber wenn sich ein Produkt 6 Monate später
am Markt etabliert und dann von einem Weitwurf gesprochen wird ist was schief gelaufen...

Aber klar, der Absatz stagniert, die Umsätze schrumpfen, man hat nix in der Hand, was tun, große Worte schwingen.
 
Nokia n97 mini schrieb:
Benimm dich mal bitte richtig.
Der einzige der sich hier offenbar nicht vernünftig benehmen kann bist wohl du, da du einfach mal andere Leute beleidigst indem du ihnen rumgetrolle unterstellst, selbst aber Dinge als Fakten darstellst, welche noch gar nicht bekannt sind. Oder zeig mir seriöse Kepler Benchmarks. Kannst du nicht? Dann unterlasse es also bitte.

bulldozer1 schrieb:
Selbst wenn Kepler nur ein simpler Shrink wäre (was laut nVidia nicht der Fall ist) könnte man die Leistung erahnen.
Kepler soll doch eine neue Architektur bringen. Und da eine neue Architektur auch Risiken birgt kann es genauso gut ein Flopp werden.
Nur weil etwas auf dem Papier gut aussieht, muss es nicht bedeuten das es dann in der Umsetzung gut ist.
Siehe die HD2900er Serie. Auf dem Papier ein verdammt heißes Eisen, am Ende kam nicht soviel bei rum (weil zusätzlich die 8800er Serie auch noch richtig gut war, das war dann doppelt dumm)
 
natürlich wird die nvidia schneller, keine frage! aber unter welchen voraussetzungen zu heis, stromhungrig und hat sie wenigstens genug power für sehr hohe auflösungen mit mehreren monitoren!? da sehe ich eine große schwäche !!!
 
Das Große Problem wenn man etwas später als der Konkurrent bringt man muss irgendwie die Leute abhalten die Produkte vom Konkurrenten zu kaufen. :lol:
Das Kepler stärker wird bezweifle ich jetzt mal nicht aber fast schon eine Aussage zu treffen die so lauten hätte können:
"Ach AMD ist überraschend schwach, wir hätten mehr erwartet, aber das wird schon AMD ^^"
Ist doch ein bisschen übertrieben.
Ich vermute Keplers Highend-Karte verbrauch 25% mehr Strom hat däfür aber auch 20% mehr Leistung. Irgendetwas viel anderes würde mich überraschen.
 
die frage dabei ist, wie viel schneller. ist sie "nur" 30% schneller als eine 7970
Wenn man mal auf Fermi & Co zurückschaut, würden es ja nichtmal 30 % werden.
Und selbst wenn. Es ist ja keine große Kunst, bei einer ein halbes Jahr länger andauernden Entwicklung eine schnellere Karte abzuliefern. Das ist schon eher Pflicht !!
Wie du schon sagstest, AMD kann direkt kontern und 'ne 7970 XTX / 7980 usw. rausbringen ...
 

Ähnliche Themen

Antworten
98
Aufrufe
17.989
boxleitnerb
B
Zurück
Oben