News Nvidia GeForce GTX 880 für Mitte September erwartet

Eine GTX860 mit 4GB Vram, die Leistung über einer GTX770 und nur einem PCIe 6x Stecker und ich könnt evtl schwach werden. Obwohl ich eigentlich nicht nochmal auf 28nm auf/umrüsten wollte.
 
Das kommt ganz darauf an "was hinten rauskommt" ...unabhängig von den Specs, denn die sind mir pers. völlig latte.^^
 
EcOnOmiC schrieb:
Hab ich irgendwo was negatives zu Kunststoff geschrieben???
Ganz im gegenteil

Dann lass uns doch bitte an deinem Gedankengang teilhaben und erkläre warum dich die 680 an einen Plastikbomber erinnert.

George03 schrieb:
Also wenn man die GTX 650Ti mit der GTX 750Ti im Verbrauch vergleicht dann ist es um fast die hälfte weniger, aber dafür hat die GTX 650Ti mehr CUDA Cores, also auch etwas mehr Leistung als die GTX 750Ti, theoretisch gesehen!

Wenn man es hochrechnet dann könnte es wirklich auf etwa 160Watt kommen die eine GTX 880 verbraucht aber hier muss man auch schauen wie viele CUDA Cores die Karte bekommt und was für einen Takt Sie haben wird.

CUDA Core oder Shader Einheit ist bei verschiednen Architekturen immer ein bisschen anders und auch nicht zu pauschalisieren. Die 580 hat auch weniger kerne als die 750 Ti ist aber trotzdem schneller. Warum die 580 schneller ist sollte man sich am besten von den Chipentwicklern erklären lassen :D oder einen dicken Fachartikel lesen.
 
D3Spieler schrieb:
Nicht nur BluRay, die AMD Karten fressen bei jeglicher Video Anspielung sehr viel mehr Strom, wie ein amerikanischer SUV.

Das ist nicht richtig.
Bei zwei gleichen Monitoren frisst AMD nicht unbedingt mehr Strom und bei 3 Monitoren ist AMD vorne, bzw bei drei gleichen deutlich.
Wo AMD hinterher hinkt ist Blu-Ray bei den großen Karten ( wegen Bildverbessern ) und bei dem Verbrauch bei 2 untersch. Monitoren.

Denkst du der Vergleich ist übertrieben? Wir sprechen hier von einem verschwenderischen doppelten bis dreifachen Mehrverbrauch.

Ja das ist übertrieben, weil es nicht korrekt ist.

Das ist KATASTROPHAL. Tut mir leid wenn du das nicht so siehst aber angesichts der gewaltigen Unterschiede die sich sogar im dreistelligen Prozent befinden ist das gewaltig.

Du hast eine CPU mit 1 Watt und eine mit 2. Die mit 2 Watt verbraucht doppelt soviel wie die mit 1 Watt.
Trotzdem ist der Mehrverbrauch nicht katastophal.

Ja es mag vllt einen Unterschied machen ob man baugleiche Monitore verwendet oder nicht, im ungünstigen Fall sind sie es nicht. Es ist nicht ungewöhnlich das jemand einen älteren Zweimonitor oder gar ein Fernsehgerät angeschlossen hat.

Selbst dann ist es nicht klug unsachliche Wörter dafür zu benutzen.

Die AMD Karten müssen günstiger sein, sonst würde sie kaum jemand kaufen.

Das liegt an solch einseitigen Pauschalkommentaren wie von dir und sicher nicht am Angebot von AMD.
 
Eine Nvidia Meldung und schon kommen alle Fanboys wieder aus Ihren Löchern. Wer sich für den High-End Bereich interessiert kann eh wieder ein Jahr warten. Nvidia macht das selbe wie mit dem Kepler GK104, euch richtig schön melken. Erst den kleinen Chip rausbringen & dann ein Jahr später kommt eine Gtx 980Ti mit dem selben Chip nur ist da dann nix beschnitten & 256bit Speicheranbindung im Jahre 2014.... :stock:

& wer hier auf die Idee kommt wieder gegen AMD zu moppern :n8: AMD hat mit dem Hawaii Chip gezeigt das sie sowohl in Sachen Leistung als auch im Stromverbrauch auf gleicher höher sind(Referenzkarten mal außer betracht gelassen) Dazu bekommt man seit über 8 Monaten einfach viel mehr Leistung, für das gleiche Geld bei AMD. Frage mich da sowieso wer da noch Nvidia kauft :freak: Wer dazu AMD noch den Untergang wünscht, der sollte sich mal überlegen was ein Monopol in Sachen Fortschritt/Leistung/Preise bewirkt.
 
Zuletzt bearbeitet:
SaschaHa schrieb:
Mir ist es jedoch schleierhaft, dass man gut 8 Jahre später immernoch die "alten" langsamen Interfaces verwendet und stattdessen den Takt in kleinen Schritten an seine Grenzen treibt, obwohl man doch das selbe Ergebnis, oder gar eine viel höhere Leistung, so einfach erreichen könnte! Und gebrauchen könnte man dies sicher gut

Das ist egal, denn aktuelle Grafikkarten haben ja einen Cache.Die 750Ti bricht trotz nur 128-bit mit ihrem 2MB großen Cache nicht ein.Meine alte GTX 260 ist mit 448-bit und 4x AA, 16 AF + 4x Super Sampling eher eingebrochen.

Vielleicht hat die GTX 880 ja 4MB Cache.

Nächstes Jahr kommt dann mal wieder ein neuer PC ins Haus mit GTX 870 ;)
 
Zuletzt bearbeitet von einem Moderator:
smilefaker schrieb:
Das ist nicht richtig.
Bei zwei gleichen Monitoren frisst AMD nicht unbedingt mehr Strom und bei 3 Monitoren ist AMD vorne, bzw bei drei gleichen deutlich.
Wo AMD hinterher hinkt ist Blu-Ray bei den großen Karten ( wegen Bildverbessern ) und bei dem Verbrauch bei 2 untersch. Monitoren.



Ja das ist übertrieben, weil es nicht korrekt ist.



Du hast eine CPU mit 1 Watt und eine mit 2. Die mit 2 Watt verbraucht doppelt soviel wie die mit 1 Watt.
Trotzdem ist der Mehrverbrauch nicht katastophal.



Selbst dann ist es nicht klug unsachliche Wörter dafür zu benutzen.



Das liegt an solch einseitigen Pauschalkommentaren wie von dir und sicher nicht am Angebot von AMD.

Ja genau zerpflück nur jeden Satz, reiße ihn aus dem Kontext und spiel die Fakten herunter.

Der hohe Verbrauch beschränkt sich hier nicht nur auf Blu Ray sondern tritt grundsätzlich bei Hardware beschleunigten Videos auf, auch Youtube oder Sonstige. Das kannst du auch in dem link zu tomeshardware nachlesen.

Deinen Vergleich mit der 1w vs 2w CPU finde ich auch sehr amüsant. Befindet sich diese CPU, in diesem Fall eher ein SoC, in einer Smartwatch macht dieser doppelte Mehrverbrauch schon was aus.

Wir haben bei der AMD 290 im Bereich Video Playbay und Multi-Monitor Anwendung einen Mehrverbrauch gegenüber einer GTX 780 um den Faktor 2 bis 3. Ich bewerte das als ein katastrophales Ergebnis und das ist meine persönliche Meinung dazu. Es ist mir völlig egal ob du das anders sieht, du kannst nicht dagegen argumentieren.

Und wie du darauf kommst dass die R9 290 bei 3 Monitoren weniger verbraucht, ist mir auch ein Rätsel. Wir ging von Anfang an von unterschiedlichen Monitoren aus, weil dies nun mal auch das häufigste vorkommende Setup ist.

Die Fakten sprechen eine andere Sprache:

multimonitorizxqi.png
 
Zuletzt bearbeitet:
Black&White schrieb:
Eine Nvidia Meldung und schon kommen alle Fanboys wieder aus Ihren Löchern. Wer sich für den High-End Bereich interessiert kann eh wieder ein Jahr warten. Nvidia macht das selbe wie mit dem Kepler GK104, euch richtig schön melken...
Ich würde eher sagen ...die Gegebenheiten, der Markt & die nicht vorhandene Konkurrenz ermöglichen solche Preisgefilde.
Ich behaupte auch einfach mal, wenn AMD in der gleichen Position wäre, dann würden "sie" ebenfalls nicht dankend ablehnen.^^
Mal schauen, was die kommenden Tonga's+X da noch ändern können. ;-)

Black&White schrieb:
AMD hat mit dem Hawaii Chip gezeigt das sie sowohl in Sachen Leistung als auch im Stromverbrauch auf gleicher höher sind(Referenzkarten mal außer betracht gelassen) Dazu bekommt man seit über 8 Monaten einfach viel mehr Leistung, für das gleiche Geld bei AMD ...
Das ist richtig, allerdings auf Kepler bezogen. Mit Maxwell werden im wahrsten Sinne des Wortes die Karten neu gemischt.
Alles "hinter Hawaii" ist doch kalter Kaffee & konnte man(n) schon vor Jahren kaufen, wenn auch zugegebenermaßen nicht zu diesen Preisen.
Allerdings LeistungX zu ZeitpunktY kostet halt ...normal.^^
 
Ich werds wie bei der 8800GTX machen. Ein Jahr nach Release kaufen und dann fünf Jahre von zehren :-)
 
Awww ich freu mich schon auf die 880 :D werd mir lieber die kaufen statt einer 780 ^^
Ich frag mich echt wann die "guten" Customs kommen z.b Inno, msi ist auch gut aber der Support >.< what the .....
 
Holzinternet schrieb:
Ich werds wie bei der 8800GTX machen. Ein Jahr nach Release kaufen und dann fünf Jahre von zehren :-)

Ich denke auch dass die GTX8xx Serie ein ähnlicher Erfolg werden kann wie damals die 8800er Serie.Ich hab das irgendwie im Gefühl :)

Die 8 verpflichtet einfach bei Nvidia ;)
 
Die 8800GTX und 8800Ultra waren Meilensteine... Das waren Zeiten als Generationenwechsel noch wirkliche Leitungssprünge brachten. Ich hab das Monster geliebt 😊
 
high end heisst für mich das beste, schnellste was zZ aufm markt ist. und falls die 880 dann schneller als die 780ti wird(was ich denke), dann ist das high end, ob beschnitten oder nicht. irgendwie ist das immer das gleiche hier.

angenommen es kommt mal eine 880ti im vollausbau...ja und, irgendwann kommt dann ne 980 und macht die 880ti wieder platt.
das was zählt sind die fps, sonst nichts.
 
Nein, sonder die Leistung die die GPU schafft, FPS sind zweitrangig
 
pipip schrieb:
hotcklocking

Hoffe das ist Erklärung genug.

Genau darauf wollte ich anspielen^^
Den Hotclock kenne ich, darum sagte ich auch das man es nicht pauschalisieren sollte.
Maxwell hat z.B. Glaub ich den 8 fachen Cache von Kepler, das könnte auch was bringen.
 
Was glaubt ihr wird die neue Generation an mehr Leistung zu einer Normalen GTX 780 haben? In %

Da ja der GK110 so eine Art High End Chip ist, sollte er doch immer noch gut mithalten können und nicht unbedingt bis zum 30% langsamer sein, oder irre ich mich?
 
Selbst wenn es bereinigt (OC) 30% wären, who cares?! Das ist noch immer deutlich zu wenig für 4k. Wenn dann würden vielleicht Leute mit 120Hz Monitoren in FHD etwas profitieren.
Um eine 780 aus dem Slot zu schubsen, muss schon deutlich mehr her. Gerade die 6GB-Versionen sitzen da noch sehr bequem im Sattel.

Die 800er sind Übergangsprodukte, von denen keiner mehr redet, wenn nächstes Jahr die richtigen Maxwells kommen. Da kann man dann mal gucken, was die 780 ablösen könnte.
 
Zurück
Oben