Während man beim Verbrauch der CPUs halbwegs vernünftig entwickelt, passiert bei den Grafikkarten genau das Gegenteil. Waren die 3 genannten Stromanschlüsse in einem meiner letzten Posts noch ironisch gemeint, wird es heute schon Realität. Mein nächster Vorschlag für die Hersteller: Ein eigenes Netzteil für die Grafikkarte. Dort könnt ihr dann nochmals zusätzlich einige hundert Watt in die Luft blasen.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Weitere Bilder zur AMD Radeon HD 6990 „Antilles“
- Ersteller Volker
- Erstellt am
- Zur News: Weitere Bilder zur AMD Radeon HD 6990 „Antilles“
ThePegasus1979
Lt. Junior Grade
- Registriert
- Jan. 2008
- Beiträge
- 504
Wolkan schrieb:Während man beim Verbrauch der CPUs halbwegs vernünftig entwickelt, passiert bei den Grafikkarten genau das Gegenteil. Waren die 3 genannten Stromanschlüsse in einem meiner letzten Posts noch ironisch gemeint, wird es heute schon Realität. Mein nächster Vorschlag für die Hersteller: Ein eigenes Netzteil für die Grafikkarte. Dort könnt ihr dann nochmals zusätzlich einige hundert Watt in die Luft blasen.
Nein, wir wollen kein Voodoo Volts Revival
Naja Wolkan du musst das auch so sehen wir reden hier von einem Gerät von dem wir Leistung erwarten.
Jemand der Strom sparen will und trotzdem Preis/Leistungstechnisch dabei sein will kauft sich ne Karte im unteren Segment.
Ich gehe schon davon aus, dass AMD hier auf Stromsparen gesetzt hat und die Karte weniger verbrauchen wird als die 4870x2 und trotzdem mehr Leistung bringt. Man muss eben das Verhältnis sehen.
Heutige V12-Motoren verbrauchen auch weniger Sprit als vor 20 Jahren. Trotzdem erwartet man von ihenen pure Leistung.
Jemand der Strom sparen will und trotzdem Preis/Leistungstechnisch dabei sein will kauft sich ne Karte im unteren Segment.
Ich gehe schon davon aus, dass AMD hier auf Stromsparen gesetzt hat und die Karte weniger verbrauchen wird als die 4870x2 und trotzdem mehr Leistung bringt. Man muss eben das Verhältnis sehen.
Heutige V12-Motoren verbrauchen auch weniger Sprit als vor 20 Jahren. Trotzdem erwartet man von ihenen pure Leistung.
ultravoire
Lt. Commander
- Registriert
- Dez. 2007
- Beiträge
- 1.987
Die Karte ist mMn der größte Sch***. Verstehe nicht wieso AMD eine teure Dualkarte mit 2 Cayman-Chips (389 mm² Die-Größe pro Chip) entwickelt die dann auf 6950-Niveau lässt.
Die sollen lieber 2 Barts GPUs einsetzen mit den Taktraten einer 6870 oder leicht übertaktet + 4GB GDDR5 insgesammt und schon hätte man eine ähnliche Performance wie mit den Monsterchips^^, nur das Amd viel günstiger in der Herstellung fahren würde und wir das am Endpreis auch merken würden!!
Die sollen lieber 2 Barts GPUs einsetzen mit den Taktraten einer 6870 oder leicht übertaktet + 4GB GDDR5 insgesammt und schon hätte man eine ähnliche Performance wie mit den Monsterchips^^, nur das Amd viel günstiger in der Herstellung fahren würde und wir das am Endpreis auch merken würden!!
Zuletzt bearbeitet:
Lycos
Ensign
- Registriert
- Okt. 2010
- Beiträge
- 227
OK ... versteh ich nicht: Ich seh auf dem Foto ein schwarzes Brikett mit einem roten Lüfter in der Mitte. Das könnte jetzt alles von 5870 bis 6990 sein.
So lange in dem Artikel keine technischen Details (Anzahl Shader, Takt, etc.) angegeben werden ist sowas doch echt fürn Arsch.
So lange in dem Artikel keine technischen Details (Anzahl Shader, Takt, etc.) angegeben werden ist sowas doch echt fürn Arsch.
Martricks
Lieutenant
- Registriert
- Sep. 2005
- Beiträge
- 885
@loetifant
So habe ich es auch echt gemacht. Bin mit meinem PC ins kleine Zimmer gezogen, weil ich dann keine Heizung mehr anmachen muss:-) Wenn ich Eyefinity anschmeiße, muss ich nach 1Std die Tür aufreißen
Und nochmal wegen dem Stromverbrauch der 6990: Die Effizienz dieser Karte wird sicherlich sehr gut werden. Kann man sich schwer vorstellen, ist aber so. Die Frage ist nur wie weit Powertune dort eingreift, und wie laut, der Spaß wird.
Auch wenn mich so eine Karte reizt, lächelt mich dann eher ein SLI/CF Verbund aus 2x580GTX oder 2x6970 an, wobei die 580er mein Budget deutlich überschreiten. Grade wenn man überlegt zwei 6950 zu flashen^^
So habe ich es auch echt gemacht. Bin mit meinem PC ins kleine Zimmer gezogen, weil ich dann keine Heizung mehr anmachen muss:-) Wenn ich Eyefinity anschmeiße, muss ich nach 1Std die Tür aufreißen
Und nochmal wegen dem Stromverbrauch der 6990: Die Effizienz dieser Karte wird sicherlich sehr gut werden. Kann man sich schwer vorstellen, ist aber so. Die Frage ist nur wie weit Powertune dort eingreift, und wie laut, der Spaß wird.
Auch wenn mich so eine Karte reizt, lächelt mich dann eher ein SLI/CF Verbund aus 2x580GTX oder 2x6970 an, wobei die 580er mein Budget deutlich überschreiten. Grade wenn man überlegt zwei 6950 zu flashen^^
Lycos schrieb:OK ... versteh ich nicht: Ich seh auf dem Foto ein schwarzes Brikett mit einem roten Lüfter in der Mitte. Das könnte jetzt alles von 5870 bis 6990 sein.
So lange in dem Artikel keine technischen Details (Anzahl Shader, Takt, etc.) angegeben werden ist sowas doch echt fürn Arsch.
Im Moment weiss man immerhin die Größe. Nicht in Fakten aber man macht sich selber anhand der Hand die die Karte hält ein Bild davon machen.
Sonst seh ich das genauso!
HOOKii
Banned
- Registriert
- Feb. 2009
- Beiträge
- 1.269
@bensen
Ja ich spreche hier vom Referenzdesign. Übrigens, besitze ich noch 2x GTX260 mit deren Superlüfter, kein Referenzdesign, die machen ein Höllenlärm das einem schlecht wird, das zudem.
Ich denke mal, du hattest noch nie eine DualKarte in deinem Rechner und schon garnicht eine ATi.
Ja ich spreche hier vom Referenzdesign. Übrigens, besitze ich noch 2x GTX260 mit deren Superlüfter, kein Referenzdesign, die machen ein Höllenlärm das einem schlecht wird, das zudem.
Ich denke mal, du hattest noch nie eine DualKarte in deinem Rechner und schon garnicht eine ATi.
Ich brauche die Karte nicht selber gehabt zu haben um beurteilen zu können ob sie laut ist oder nicht. Dafür gibt es genügend Tests.HOOKii schrieb:Ich denke mal, du hattest noch nie eine DualKarte in deinem Rechner und schon garnicht eine ATi.
Jeder ist da nun mal unterschiedlich empfindlich. Aber nur weil du da anspruchslos bist, muss das ja nicht für alle gelten. Ich würde mir auch keine GTX580 oder 6970 im Referenzdesign einbauen.
nur mal als kleine frage.....WOZU?!
(kleine jungs mit viel geld und aufmerksamkeitsbedürfnissen vorweg gelassen)
nochmal genauer: wozu braucht man die karte? war nicht gestern oder heute der artikel über die neuen konsolengenerationen? sehr wahrscheinlich NICHT dieses jahr, ergo es gibt wenig bis keine spiele, für die man diese karte wirklich brauchen wird, sprich nächstes jahr gibt es eine neue generation, die mehr leisten wird -> meiner meinung nach hat die karte keine existenzberechtigung^^
im normalen spielen reicht eine 560ti mehr als dicke aus, wenn man eine karte zum professionellen rendern braucht -> workstation karte
nochmals formuliert:
ohne prestige aspekte (wir KÖNNEN sowas bauen, wir WOLLEN die spitze der schnellsten karte) ist diese karte ein absoluter schwachsinn, das geld der entwicklung in neue kühlsysteme bzw energieeffiziente systeme zu stecken hat einiges mehr an sinn als dies zu bauen,
zu groß, (wahrscheinlich) zu laut, definitiv zu viel strom
wer sie brauchen könnte? menschen die in 2560*1600 bei 32facher kantenglättung spielen wollen, jedoch wenn die konsolen den pc bremsen stellt sich hier wieder die frage des sinns und wer so "spielt" hat kein leben
(kleine jungs mit viel geld und aufmerksamkeitsbedürfnissen vorweg gelassen)
nochmal genauer: wozu braucht man die karte? war nicht gestern oder heute der artikel über die neuen konsolengenerationen? sehr wahrscheinlich NICHT dieses jahr, ergo es gibt wenig bis keine spiele, für die man diese karte wirklich brauchen wird, sprich nächstes jahr gibt es eine neue generation, die mehr leisten wird -> meiner meinung nach hat die karte keine existenzberechtigung^^
im normalen spielen reicht eine 560ti mehr als dicke aus, wenn man eine karte zum professionellen rendern braucht -> workstation karte
nochmals formuliert:
ohne prestige aspekte (wir KÖNNEN sowas bauen, wir WOLLEN die spitze der schnellsten karte) ist diese karte ein absoluter schwachsinn, das geld der entwicklung in neue kühlsysteme bzw energieeffiziente systeme zu stecken hat einiges mehr an sinn als dies zu bauen,
zu groß, (wahrscheinlich) zu laut, definitiv zu viel strom
wer sie brauchen könnte? menschen die in 2560*1600 bei 32facher kantenglättung spielen wollen, jedoch wenn die konsolen den pc bremsen stellt sich hier wieder die frage des sinns und wer so "spielt" hat kein leben
GeneralAnal
Lieutenant
- Registriert
- Okt. 2009
- Beiträge
- 603
Das Ding wär was für mein Gehäuse
Schön anzusehen dass man mit so einer Grafikkarte Anderen regelrecht auf die Füße tritt.
Was denn, klar ist das Käfighaltung?!
...aber es gibt mehr Eier!
Schön anzusehen dass man mit so einer Grafikkarte Anderen regelrecht auf die Füße tritt.
Was denn, klar ist das Käfighaltung?!
...aber es gibt mehr Eier!
AMD_Freak_
Lieutenant
- Registriert
- Apr. 2010
- Beiträge
- 513
Ich denke auch das der Lüfter der Karte laut sein wird. Ich hab einen schreck bekommen als ich den Lüfter meiner 6970 auf 100% gedreht habe. Ich dachte zuerst: "OMG was passiert jetzt Oo" Zum glück kommt die nie auf 100% Lüftergeschwindigkeit
Poati
Captain
- Registriert
- Okt. 2009
- Beiträge
- 3.596
Ich denke auch ma, dass dieses Monster laut wird und wohl die Leistung einer Asus Ares mit nicht ganz so krassem Verbrauch bringt. Die Asus special Version (gehe einfach mal davon aus, dass die wieder sowas basteln) setzt dann noch einmal ne Schippe oben drauf.
TheGreatMM
Captain
- Registriert
- Mai 2008
- Beiträge
- 3.096
können die sich nicht mal auf hdmi einigen? ist im hifi&video Bereich Standart und sollte auch im Pc Standart sein
ultravoire
Lt. Commander
- Registriert
- Dez. 2007
- Beiträge
- 1.987
Hm glaube nicht das NViDIA eine performantere Karte rausbringen kann die kühlbar ist als die 6990^^
Tamahagane
Vice Admiral
- Registriert
- Jan. 2008
- Beiträge
- 6.626
AMD muss sich - genau wie Nvidia es getan hat - hinsetzen und ihre Referenzkühler überarbeiten.
Es kann nicht sein, dass ihr Prestigeprodukt (von den Mikrorucklern mal abgesehn) bei jedem Test in die Kritik gerät, weil der Lüfter dermaßen laut ist.
Es kann nicht sein, dass ihr Prestigeprodukt (von den Mikrorucklern mal abgesehn) bei jedem Test in die Kritik gerät, weil der Lüfter dermaßen laut ist.
Ähnliche Themen
- Antworten
- 76
- Aufrufe
- 13.505
- Antworten
- 87
- Aufrufe
- 14.644
- Antworten
- 59
- Aufrufe
- 9.002