News Übertaktete HD 7970 mit 1.335 MHz GPU-Takt in Vorbereitung?

Pickebuh schrieb:
Wer sich kein DSL leisten kann, der kauft sich mit Sicherheit auch keine 550 Euro Grafikkarte und freut sich dabei, wenn man 5 Watt die Stunde weniger verbraucht.

Furchtbar deine Argumentation zu folgen. :freak:


Da ist nix mit Idle weniger Verbrauch und so...
Das ist nur im seltensten Fall, wenn der Rechner komplett schlafen geht ohne Monitorbetrieb.


Aha, ok deiner Logik nach gibt es Deutschland weit über DSL, das ist totaler schmarn was du schreibst, nicht jeder hat DSL geschweige denn hat die Mittel um es sich zu besorgen, weil einfach die Versorgung nicht vorhanden ist, desweiteren empfinde ich eher deine Argumentationen als furchtbar, weil sie sich so lesen als wäre AMD einfach nur schrecklich und total Sch*** und fürn A****, da liest sich eher der Pure Hass raus und sobald dir die Argumente ausgehen bezeichnest du alles als nutzlos was jedoch eine daseins Berechtigung hat, zB. ist wie bereits von mir vorher erwähnt das ZeroCore Feature im Bezug auf Crossfire oder Mehr-GPU Rechner ganz sinnvoll, weil lediglich eine genutzt werden muss und die anderen im Idle Modus chillen und schlafen^^ und wenn jetzt das Argument kommt dass bei Crossfire die GPUs in Spielen viel verbrauchen, will ich das nicht verneinen, jedoch bedenke ist ein PC eher im Volllast oder eher im Idle Modus, wenn man ihn regulär nutzt ???
 
milamber! schrieb:
Ich will nicht kleinlich sein, aber die GTX 580 ist mitte November in den Handel gekommen. Und bis es nach dem Paper Launch auch die 7970 in die Regale schafft, bis dahin sind es noch lange keine 1 1/2 Jahre.

Welches Jahr bitte ?
Wir haben jetzt noch 2011 und bald 2012.
https://www.computerbase.de/2010-11/test-nvidia-geforce-gtx-580/

Guten Morgen im Jahr 2012. ;)

Er schrieb nicht nur über die ZeroCore-Power Einstellung, sondern auch über den guten Idle Verbrauch, und der ist für ne High End Karte nun tatsächlich mal wieder eine neue Referenz.
Nur weil Nvidia ihre neuen Karten noch nicht auf den Markt gebracht hat, darf man AMD für gute Werte und sinnvolle Neuerungen nicht loben? Was ein Unfug.

Und ich schrieb, das man von einem in 28nm gefertigten Produkt, was fast 1,5 Jahre jünger ist, nichts anderes erwarten kann.
Der Idle Verbrauch ist dem 28nm Fertigungsprozess angemessen.
Hat aber so gesehen nichts mit AMD zu tun.


Was man "sollte" und was der User tut, sind zwei völlig unterschiedliche Dinge. Niemand wird seltener den PC schlafen legen, weil die Grafikkarte nun nach 10 Minuten fast kein Strom mehr verbraucht, jedoch spart dieses Feature bei denen, die den Rechner laufen lassen (und sei es bei Office Karten um nochmal 5 Watt zu sparen) für längere Zeit eben trotzdem Strom. Das rettet nicht die Welt, ist aber trotzdem nicht verkehrt. Nicht zu vergessen der eingesparte Verbrauch bei Crossfire und vermutlich DualGPU Grafikkarten.

Das Prinzip dahinter ist ja nicht schlecht.
Sparen tut man damit. Wie viel ist eben Anwenderungsbedingt.
Aber es ist eben keine große Sache, so wie es jetzt per PR-Marketing dargestellt wird.
Die Wirkung von solchen PR-Folien ist ja kaum von der Hand zu weisen.
Kaum einer hier versteht den eigentlichen Arbeitsablauf der ZeroCore-Power, aber jeder führt es als das Hauptaugenmerk im Kampf gegen die Feinde des roten Imperiums zu Felde *lach* :evillol:

Marketing ist doch etwas herrliches. :cool_alt:

Du kannst ja in Zukunft weiter dieses Funktion schlecht Reden, weil sie von AMD kommt - sie wird es dadurch trotzdem nicht.

Ah, und dein nächster Fehler.
Deine Meinung beruht mal wieder auf der Annahme, deiner eigenen persönlichen Glaubenssätzen.
Die lauten "Sobald jemand etwas kritisiert, ist er gleich ganz und gar negativ auf ein Produkt eingestellt".

Nun mein lieber Milamber!
Kritiker sind keine Fans !
 
Herdware schrieb:
Wenn man es genau nimmt, sind Nvidias 500er-Karten durchaus die passende Konkurrenzgeneration zu den 7000ern von AMD.

Nvidia -> AMD/ATI
...
8000 -> 2000
9000 -> 3000
200 -> 4000
300 -> 5000
400 -> 6000
500 -> 7000
...

AMD kann ja nichts dafür, dass Nvidia die 300er-Generation einfach hat ausfallen lassen bzw. sie übersprungen hat. :evillol:
(Es gab zwar ein paar kleinere 300er-Karten, aber das waren nur umbenannte 200er.)

Das ist Schwachsinn, die 300er gab es nie zu kaufen. Es waren umbenannte und/oder speziell für den OEM-Markt hergestellte Karten. Die 400er Serie konkurrierte mit der 5000er und die 500er mit der 6000er. Hier war nVidia sogar schneller und hatte seinen Refresh der 400er, was anderes war die 500er Serie nicht, vor AMDs Refresh der 5000er, also der 6000er Serie draussen.
 
Jungs die 7970@air zerpflückt die GTX580@LN2 gerade bei allen Benchmarks die Bencher und Hwbot interessieren ;)

http://hwbot.org/forum/showthread.php?t=36837

Die Karte ist mit Abstand das beste was seit langen einem Hersteller gelungen ist ;)

P.S.: ja ich habe zur Zeit nur Grüne verbaut, das ist aber bald vorbei ;)

Wünsche allen ein guten Rutsch ins neue "Rote" Jahr
 
Zuletzt bearbeitet:
na das einzig interessante daran ist ob es wirklich 4 CU merh sind. Den Takt finde ich nicht so interessant...

Einerseits recht glaubhaft da AMD so schnell wie möglich die Grafikkarten raus hauen wollten. Anderseits gab es das Gerücht bisher bei jeder Generation seit der 3870 und draus geworden ist nie was.

Für mich nur noch ein Grund erst mal zu warten.
 
Pickebuh, es gibt nicht überall DSL 16.000 und mehr. Bei mir gibt´s auch nur DSL 2000, obwohl große Städte nicht weit sind. Dennoch gibt es einige Leute, die auch mit solchen Verbindungen teure Grafikkarten kaufen, weil das Internet diese sicher nicht ausbremst. Womit wir wieder beim Thema Tellerrand wären...

Und die Arbeitsweise von ZeroPower habe ich verstanden. Meine Aussage bezog sich trotzdem auf den "normalen" Idle-Modus, wo die Grafikkarte laut HardTecs4U trotzdem nur gut 14 Watt aufnimmt gegenüber den 31 Watt der GTX 580. Selbst das ist ja schon nur die Hälfte. Ja, ich weiß, dass der ZP Modus nur mit abgeschaltetem Monitor oder anderer Grafik greift. Trotzdem sind die Ergebnisse sehr gut. Dazu das passende Zitat:

...In den Energiesparoptionen von Windows 7 setzten wir die Zeit zum Abschalten des TFT auf eine Minute und brav nach dem Verstreichen der Zeit ging der Monitor aus. Wenige Momente später blieb der Lüfter der Grafikkarte stehen und unsere Messungen ergaben eine Leistungsaufnahme von 2,03 Watt.

Ich hoffe ja selbst auf ein ausgeglichenes Rennen zwischen den beiden Herstellern, aber momentan muss man einfach ganz klar festhalten, dass AMD einen großen Schritt voraus ist, was diesen Bereich betrifft. Da braucht man wohl nicht drüber diskutieren...
 
Desertdelphin schrieb:
Wieviel Watt ihr allein bei eurer "Diskusion" verbraucht ist gigantisch :D

Wie man sich so über eine noch nicht mal releasede Karte aufregen kann

Seh ich genauso, das Gehype bzgl. des Stromverbrauches kann ich schon lange nicht mehr nachvollziehen.

Dein Rechner läuft 4 Stunden täglich im Zero Modus und du kannst 20 Watt/h sparen?

--> Gratulation! Du hast genau € 5,80 im Jahr gespart. Welche bedeutende Summe verglichen mit dem Grafikkartenneupreis von + 450,-. *Ironie off*
 

Anhänge

  • Mehrverbrauch.jpg
    Mehrverbrauch.jpg
    24,3 KB · Aufrufe: 507
Zuletzt bearbeitet von einem Moderator:
the_ButcheR schrieb:
Die HD 7970 ist, in den für sie relevanten Auflösungen, schon an die 30% schneller als die GTX 580, wenn die jetzt tatsächlich noch um über 40% übertaktet wird... Ich finde es echt erstaunlich wei AMD nVidia in Schach halten kann, aber bei den CPUs einfach nicht mehr nachkommt.


MfG

Die Cpu Geschichte war einfach nu krasses Missmanagement. Hoffen wir dass AMD die Pfoten von ATIs Entwicklungsabteilung lässt, wenn sie die auch noch kaputtspielen ist Hopfen und Malz verloren -.-
 
Pickebuh schrieb:
Wer sich kein DSL leisten kann, der kauft sich mit Sicherheit auch keine 550 Euro Grafikkarte und freut sich dabei, wenn man 5 Watt die Stunde weniger verbraucht.
Anschaffung von DSL für den Ort in, in dem meine Eltern wohnen knapp 60000€*, Anschaffung einer Grafikkarte 500€.
Jetzt wo du es sagst, fällt es mir auch auf: Wer sich die Grafikkarte leisten könnte, kann auch den anderen Betrag der Gemeinde zur Verfügung stellen... :rolleyes:
Somit laufen durch aus Downloads die Nacht über oder auch während des Tages. Auch in meiner Wohnung läuft der Rechner teilweise auch wenn ich nicht zu Hause bin, um darauf per remote desktop zugreifen zu können (WOL ist leider keine Alternative). Und selbst in normalen Haushalten wird der Rechner nicht ständig runtergefahren, sondern läuft einfach in den Schaffenspausen weiter.
Warum soll sich also ZeroCore-Power als Verbesserung des Ist-Zustands nicht positiv sehen?
Das ist nur im seltensten Fall, wenn der Rechner komplett schlafen geht ohne Monitorbetrieb. Wenn man 100h Downloads hat, die man natürlich mit dem Hauptrechner herunterladen muss, wo andere für solche fälle eben einen Laptop oder HTPC benutzen [...]
Du schaffst es wirklich ein Feature zu relativieren und erwartest gleichzeitig, um die Relativierung zu begründen, dass jeder einen Zweitrechner hat??
Ich würde mal behaupten, dass mein den meisten Normalbürger, der Rechner zwischenzeitlich schlafen geht... (Telefonanruf, es klingelt an der Tür, man isst etwas, man führt zwischenzeitlich ein Gespräch,...)

Siehst du eigentlich auch einmal einen Zentimeter über den eigenen Tellerrand, bevor du etwas von dir gibst?
Dass man ein für die Masse sicherlich eher untergeordnetes, aber positives Feature kritisiert, im gleichen Post dann aber ein (aktuell) genauso wenig massentaugliches (aber prinzipiell auch positives) Feature wie CUDA positiv erwähnt, setzt dem ganzen wirklich die Krone auf...

* das entspricht dem Zuschuss, den die Telekom für die Bereitstellung von DSL von dieser Gemeinde fordert und sicherlich nach einer Privatspende an die Gemeinde auch ziemlich sicher rasch umgesetzt werden würde...
 
Zuletzt bearbeitet:
Funktioniert ZCP eigentlich beim Zusammenspiel mit einer integrierten GPU? Und wenn nicht, warum nicht?
 
Pickebuh schrieb:
Und ich schrieb, das man von einem in 28nm gefertigten Produkt, was fast 1,5 Jahre jünger ist, nichts anderes erwarten kann.

Was den Idle Verbrauch angeht ist es sehr inkompetent zu behaupten, diese Senkung des Verbrauchs habe es nur wegen der 28nm Fertigung gegeben.
Nimm mal die GTX480 oder GTX580. Wenn es da aufgrund der neuen Fertigung auch selbstverständlich war, dass der Idle Verbrauch gesenkt wird, warum hat es Nvidia dann nicht geschafft?

Pickebuh schrieb:
Was du aus einem Text hinein zu interpretiere vermagst ist irrelevant !
Hier geht es um den Nutzen eins Feature dessen Sinn offensichtlich nur auf PR-Foliefüllung ausgelegt ist und nur wenig beim User ankommt und nicht über persönliche Glaubenskrisen.

Bei deinen Aussagen muss man gar nichts interpretieren, denn sie sind einfach bewusst unsinnig.
Das Zero Core Feature ist nüchtern betrachtet ein Weg um noch mehr Strom sparen zu können und da kann man wirklich viele Beispiele nennen.
Wenn ich eine längere Installation eines Spiels oder Microsoft Visual studio 2008 mache, dann dauert das gut und gerne um die 10 minuten.
In der Zeit schalte ich den Bildschirm aus und spare mir ein paar Watt. Oder ich sauge mir etwas herunter, dekodiere Filme mit der CPU oder mache sonstige arbeiten die eine Grafikkarte nicht benötigen und da gibt es einige.
Das Feature ist also kein PR-Gag, sondern nutzbar, wie es auch einige Online Tests gezeigt haben.
Wenn Nvidia dies nicht bietet ist das ein kleiner Wermutstropfen, denn sonst wird ja auch auf den Stromverbrauch geachtet.

Da freut man sich doch gleich noch mehr, wenn der 1KW Rechner mal 20Watt weniger verbraucht. Das ist technischer Fortschritt vom Feinsten.
Glaubst du das interessiert jemanden, der zum Benchen ein Quad-CrossFireX-System mit stark übertakteten Komponenten am laufen hat ?

Ob es jemanden interessiert oder nicht liegt bestimmt nicht in deinem Ermessen dies zu beurteilen.
High End Rechner sollten, was die Stromaufnahme im Idle betrifft, auch neue Maßstäbe setzen, ansonsten ist das kein Fortschritt, sondern ein Rückschritt.
Wenn dir Rückschritte lieber sind als Fortschritte, dann sag das doch einfach.
Oder wenn dir der Stromverbrauch völlig egal ist, dann wird das von mir auch akzeptiert.
Trotzdem ist das was du schreibst, keine schlüssige Argumentation, sondern eher nicht plausibel und fehlerhaft und arrogant.
 
Ich persönlich, achte ebenfalls auf den Stromverbrauch,
hab jetzt nur mal raus gelesen, das es beim Bluray schauen, nicht wirklich klappt ?

Kenne noch nicht alle Pro & Contras des Features - Begrüße es aber !

Mein Rechner brauchte mit nur einer HDD 75 Watt im Idle.
Jetzt hab ich noch eine 2,5" 1 TB drin.

Hoffe die Festplatten preise sinken bald - und ich kann die 2x 1 TB durch 1x 2 TB ersetzen.
- Neue Platte
- Mehr Platten für mein Externes HDD Gehäuse + RAID Karte
- Strom sparen, wenn der Rechner läuft

Was ich nicht nutze, ist die Energiesparfunktion für Festplatten - also das abschalten meine ich.
Hab mal gelesen, es solle nicht so gesund sein, wenn die so oft anlaufen muss (3-4mal mehr am Tag als nötig)

Ich freu mich auf die kommende Generation.
Evtl. wird sich dann ein Effizienteres Netzteil geholt

Hätte auch ein Abnehmer für Graka und NT :) kommt aber drauf an, wann die Sapphire Karte mit gescheitem Kühler rauskommt ;)
 
es klappt auch bei 2 Monitoren nicht, wie ich finde das größte Manko der Karte.

@ Kepler Release.

Ja Kepler Release ist total offen, aber ich denke nicht mal die HD7970 ist bisher verfügbar, von daher abwarten und Tee trinken. Infos zum Kepler Release werden auch nicht ewig auf sich warten lassen, imho hat Nvidia bestätigt dass sie lauffähiges Material im Haus haben. Ich denke welches Q2012 Nvidias 28nm Modelle kommen ist noch offen, wird aber bald auch abschätzbar sein. Ich denke auch, dass Q4 zu spät wäre, da müsste Nvidia schon massive Probleme haben. Vielleicht, so hoffe ich, ist die Karte näher als gedacht. Würde auch den Preisen auf beiden Seiten gut tun.
 
Zuletzt bearbeitet:
Felixxz21 schrieb:
Hätte AMD ein ordentliches Front End gebaut, wäre wohl ein zweiter G80 auf uns zu gekommen, wenn die Shader mal ordentlich versorgt sind. Aber so ist das ganze einfach nur schwach.

AMD verbessert und optimiert seit der wahrlich nicht berauschenden HD2900 an ihrer Architektur, ich denke mal die Jungs werden es eeeeeeeeeetwas besser wissen als du ;)

Hardw4re schrieb:
Zwischen 7970 und 7990 kann eigentlich nicht viel kommen und wenn sie eine deutlich stärkere dann einfach 7980 nennen passt das ganze auch irgendwie nicht.

Ich bin mir sicher von AMD selber kommt da auch nix. Die 4890 war die einzige Karte, die im Nachhinein nochmal oben drauf gelegt hat, sonst gab es bei keiner Serie mehr eine stärkere "Serienversion" seitens AMD.

Pickebuh schrieb:
Wie heißt das Spiel, wo man mit abgeschalteten Monitor spielen kann ? ;)

Wenn der Monitor in den Stand-by geht, sollte man eher den Rechner abschalten als die Grafikkarte oder besser den User mal vor dem Rechner aufwecken.

Diese und weitere Kommentare beweisen deinen hohen Tellerrand. Selbst unzählige Beispiele diverser User für den positiven Nutzen (danke an der Stelle) halten dich nicht davon ab, diesen ansatzweise zu überblicken, echt traurig.

ZCP wird die Welt nicht retten, aber jedes W das moderne Technik einsparen kann hilft. Denn NIEMAND (auch du nicht) verhält sich zu jeder Zeit "optimal" und fährt den Rechner runter wenn er nicht benötigt wird. Gut wenn einem die Technik das automatisch abnimmt, denn sie sollte uns das Leben erleichtern.
 
KAOZNAKE schrieb:
Ich bin mir sicher von AMD selber kommt da auch nix. Die 4890 war die einzige Karte, die im Nachhinein nochmal oben drauf gelegt hat, sonst gab es bei keiner Serie mehr eine stärkere "Serienversion" seitens AMD.

gab es da nicht noch die x850xt pe und die x1950xtx ? ;)
 
Ich bin mir nicht ganz sicher... Aber ich glaube die X1950XTX hatte einen veränderten Chip. Sogar deutlich modifiziert... Irgendwas an den Shadern oder so.
Hab auch gerade genau an die beiden Karten gedacht, als ich las, AMD hätte abgesehen von der 4890 nie eine stärkere Serienkarte gebracht.

Ich lese es einfach nochmal eben nach :)
Dann wissen wir mehr.

E:
Jein... Die X1950XTX war kein neuer Chip aber deutlich mehr als nur eine Ausnutzung der fortgeschrittenen Fertigung, durch mehr Erfahrung mit dem 90nm Verfahren.

"Es gibt zwei Änderungen am R580+, wobei eine eher kosmetischer Natur ist. So wurde der Chip überarbeitet, um die Yield-Rate zu verbessern, und der Memory-Controller wurde modifiziert"

"
Kommen wir nun noch einmal zurück auf die Modifizierungen des Memory-Controllers: Um trotz identischer GPU einen Performancezuwachs zu erzielen, verbaut ATi auf dem neuen Flaggschiff erstmals auf einer Grafikkarte für den Heimanwender GDDR4-Speicher. Dieser taktet mit sehr hohen 1000 MHz, was einer Speicherbandbreite von satten 64 GB pro Sekunde entspricht."

Meine doch, dass eine Änderung am Speichercontroller eine recht deutliche Verbesserung.

Auch sehr lustig:
" Im 2D-Modus erzielt das Lüftersystem auf der Radeon X1950 XTX wohl das beste Ergebnis, welches wir je mit einer aktiv gekühlten Grafikkarte in unserem Testparcours gemessen haben. Unhörbare 47,5 Dezibel lautet das Ergebnis" :lol: hab eben nochmal nachgesehen - das erreicht eine HD6950 unter LAST. Und da sagt man dann es "ist noch deutlich aus dem Gehäuse heraus zu hören" - die Ohren von Wolfgang müssen in den letzten Jahren deutlich besser geworden sein.
Quelle: CB Test
 
Zuletzt bearbeitet:
KAOZNAKE schrieb:
Die 4890 war die einzige Karte, die im Nachhinein nochmal oben drauf gelegt hat, sonst gab es bei keiner Serie mehr eine stärkere "Serienversion" seitens AMD.

akira883 schrieb:

[F]L4SH schrieb:

durch dieses mehr, heißt für mich das er damit alle Generationen danach meint, also HD5k und HD6k. So verstehe ich seine Aussage zumindest.

Heißt aber Grundsätzlich nichts, es kann ja wieder vorkommen ...
 
akira883 schrieb:
gab es da nicht noch die x850xt pe und die x1950xtx ? ;)

Das war ATI ;)

Spaß beiseite: Präzise ausgedrückt seit der HD3k gabs sowas nicht mehr, außer eben die 4890

@ExcaliburCasi: Ja könnte, aber ich halte es für unwahrscheinlich. Macht mehr Sinn direkt ne neue Gen aufzulegen, wo man wieder optimieren kann an der Architektur und die verbesserte Fertigung nutzen um die Serie ala HD6000 auf Effizienz zu trimmen. So ähnlich wie bei INTELs Tick-Tock-Prinzip.
 
Zuletzt bearbeitet:
Zurück
Oben