Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Habt ihr mal drauf geachtet? Derzeit sind auf einmal kaum noch Netzteile von manchen Marken verfügbar, komischerweise alles ab 750 Watt aufwärts :D
 
DeadMan666 schrieb:
Jetzt wäre es natürlich noch die Frage was das konkret bedeutet auf Zwischenwerte. Ich denke mal der Performancegewinn von 270W --> 320W wird eher nicht linear laufen. D.h. ich könnte mir vorstellen das dort im 280W / 290W Bereich ein absolut attraktiver Spot sitzen könnte.
Ich glaube eher der absolut attraktive Spot wird bei 250W liegen, du hast bei 270W gerademal 4% verloren, die merkt niemand. Wenn es bei 250W dann 6% sind, merkt das immer noch niemand.
 
@matty2580

Im Zusammenhang mit dem verlinkten Artikel bei heise und den drei Punkte hier wollte ich es genau so verstanden wissen. ;)
 
Zuletzt bearbeitet von einem Moderator:
sialickiz schrieb:
Es gibt keine Spiele wo die Karte mehr als 8GB verbraucht bei konstanten 60FPS ! Bitte kein Cherry-Picking jetzt , fünf Titel (höchstens)
Keine Spiele beißt sich aber ganz schön mit fünf Titel (höchstens) ;)
 
  • Gefällt mir
Reaktionen: ~Executer~
playlord18 schrieb:
Ich persönlich verstehe die Leute nicht, die sich für weit über 1000,- € eine 2080Ti angeschafft haben und diese nun sofort mit extrem hohem Wertverlust verkaufen. :rolleyes:

Das ist offtopic, daher nur kurz: Gunter Dueck hat einen Vortrag gehalten u.a. zur utilization eines Autos. Das steht zu 90-97% rum im Jahr.
Und hat den höchsten Wertverlust sämtlicher Güter, die wir kaufen. Inkl. Unterhaltskosten und Nutzungsstunden sind Autos das Unwirtschaftlichste überhaupt an Ressourcenverbrauch.

Man nutzt die GPU viel mehr als das Auto.

Und da wollen wir über 1000 Euro diskutieren, also 2 Jahre sparen für süße 45 Euro? Für ein Hobby? 😂🤣
In einem der günstigsten Hobbys überhaupt?

Come on ;)
 
  • Gefällt mir
Reaktionen: Zwirbelkatz, MeisterOek, m0bbed und 5 andere
bad_sign schrieb:
Yeah 2-4 FPS:cool_alt:
Nach Techpower Up sind es 10% - hot oder lit(?)🔥
ja, der PCI-E 3.0 Prozessor ist schneller als der ca. gleich teure PCI-E 4.0 Prozessor in dem einen Spiel von hunderten, wo man auf einer 5700XT minimale Leistungszuwächse beim Sprung zu PCI-E 4.0 verzeichnen konnte.

Intel wird an allen Fronten gebasht für ihre CPUs aber sie liefern nach wie vor die Krone bei High Refresh Rate Gaming. Was kümmert es mich, wie schnell Youtuber XY sein bescheidenes Video rendert, mein Rechner ist zum Spielen da und wenn ich mal wirklich ein Video schneide oder Sachen archiviere werde ich wegen 1 Minute längerer Rechenarbeit auch nicht sterben.

Und für 4k mit Max Settings Vergleiche kann man auch nen 150 Euro Prozessor verbauen, kommt das gleiche raus. (Außer bei RTS games, aber auch hier brilliert wieder Intel)
 
  • Gefällt mir
Reaktionen: .Sentinel. und Laphonso
ComputerJunge schrieb:
Ich sehe noch die Option, mit dem Kauf einfach bis zur Wiederverfügbarkeit zu warten.

Die Frage ist ja, ob Nvidia überhaupt ein Interesse daran hat ;)
Die FE scheint mehr ein Lockvogelangebot zu sein...
 
Laphonso schrieb:
Das ist offtopic, daher nur kurz: Gunter Dueck hat einen Vortrag gehalten u.a. zur utilization eines Autos. Das steht zu 90-97% rum im Jahr.
Und hat den höchsten Wertverlust sämtlicher Güter, die wir kaufen. Inkl. Unterhaltskosten und Nutzungsstunden sind Autos das Unwirtschaftlichste überhaupt an Ressourcenverbrauch.

Man nutzt die GPU viel mehr als das Auto.

Was soll das denn für ein Vergleich sein?

Das Auto bringt mir im Alltag aber deutlich mehr als eine GPU.

  • Zur Arbeit fahren.
  • Einkaufen.
  • Sachen Transportieren
  • und etliche andere dinge....

Die GPU benutz ich nur zum Zocken. Das auch nur 2-4h am Tag und das auch nicht mal jeden Tag.
 
  • Gefällt mir
Reaktionen: engineer123
bad_sign schrieb:
Nach Techpower Up sind es 10% - hot oder lit(?)

Ja gut, ne, ich sach mal 10% bei FHD sollte für jemanden mit der CPU/Graka-Kombi keine Rolle spielen...
bei 4K sind wir ja dann bei nur noch 1-3% (auch Techpowerup).
 
Creeper777 schrieb:
Du meinst das ist ein CPU Limit?

Es gibt für dich also aktuell keine CPU, die eine 3000 ausreichend befeuern kann? 🤨

Wenn in Anno 1 FPS Unterschied ist, ist das definitiv ein CPU Limit o_0
 
  • Gefällt mir
Reaktionen: engineer123
playlord18 schrieb:
Das Erscheinen der Ampere Karten ändert ja nichts an der Leistungsfähigkeit der älteren Turing Karten...
Nein, gewiss nicht. Es ändert aber deren Restwert ganz erheblich in Richtung nach ganz weit unten.

Mit den jetzt gängigen Gebrauchtpreisen erreichen die 2080 Karten nun ein halbwegs realistisches P/L Verhältnis.
Für diejenigen, die sich eine 2080 (egal welche) zu den noch vor 12 Monaten aufgerufenen Mondpreisen gekauft haben ein ganz schöner "Magenbitter".
Abgespielt hat da keiner sein Geld.
 
  • Gefällt mir
Reaktionen: Asghan
OMG schon wieder einen neuen Begriff gelernt

"High Refresh Rate Gaming" ich geh fest... :hammer_alt:
 
  • Gefällt mir
Reaktionen: robertsonson und Grundgütiger
m.Kobold schrieb:
@matty2580
Es sei denn es kommt ne 3080Ti... dann ist die 3090er nichts anderes als ne Titan, die man als Gamer
eh nicht kaufen sollte.
Wollen wir wetten das es noch eine Titan geben wird?
Auf der 3090 kommt auch nur ein beschnittener GA102 zum Einsatz, der Platz wäre also da.
 
Trinoo schrieb:
über 1000 Kommentare und (das meine ich mit aller Liebe und dem maximalen möglichen Respekt) ... soviel Bullshit und Hate und komplett falsche Äußerungen die hier getätigt werden... da kann man sich nur an den Kopf fassen.
Bei manchen Äußerungen kann ich mir nicht einmal nen Reim drauf machen wie man auf sowas überhaupt kommt... um Gottes Willen... wenn man keine Ahnung hat ... bitte ... das ist ja nicht schlimm, niemand weiß alles und keiner ist perfekt... aber verbreitet doch euer ausgedachtes Wissen nicht einfach so im Internet wo es andere eventuell lesen und den Kram dann auch noch glauben.
Das ist hier Combuterbase und kein wackeliger Tisch an Harrys Hähnchen Bude wo man in ner gepflegten 3er Runde, mit nem Bier in der Hand nur Stuss von sich gibt.
Ey yo, haste mal nen €uro? :D
 
  • Gefällt mir
Reaktionen: bad_sign
m.Kobold schrieb:
Aber auch dann wird nvidia die Leistung mit ihren Fake Benches Präsentieren (mit freundlicher unterstützung von Digital Foundry) und die gut gläubigen verarscht werden mit angeblichen 60% Mehrleistung :D
Und nach knapp zwei Wochen (und mehrerer Erklärungsversuche verschiedener Personen) hast du anscheinend immer noch nicht verstanden, dass Digital Foundry die RTX 3080 mit der RTX 2080 verglichen hat, NICHT mit der RTX 2080 Ti oder der RTX 2080 Super:

4k-df.png

4k-cb.png

Der 4K-Unterschied zwischen der RTX 2080 Super und der RTX 3080 ist bereits 60%, der Unterschied zwischen der RTX 2080 und der RTX 3080 dürfte somit noch ein paar Prozente mehr sein.

Die RTX 2070 Super wurde ja schon oft als günstigere RTX 2080-Variante bezeichnet. Der 4K-Unterschied zwischen der RTX 2070 Super und der RTX 3080 ist über 80%:

4k-cb2.png

Da dürfte der 4K-Unterschied zwischen der RTX 2080 (ohne Super) und der RTX 3080 um die 70% liegen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gerithos, Zwenki, engineer123 und 2 andere
Elwies schrieb:
Für diejenigen, die sich eine 2080 (egal welche) zu den noch vor 12 Monaten aufgerufenen Mondpreisen gekauft haben ein ganz schöner "Magenbitter".
Abgespielt hat da keiner sein Geld.
Nein. Wenn du verkaufst und nix anderes dafür kaufst, einverstanden. Wenn du aber verkaufst und dir die 3080 kaufst, ist der Aufpreis sehr vertretbar. Wenn die 3080 nun deutlich teurer gewesen wäre, wäre die Situation eine Andere.
 
  • Gefällt mir
Reaktionen: silent2k
fevdlp schrieb:
Wird die karte von nem 4770k ausgebremst?

Definitiv wenn selbst hier und da AMD´s schnellster Prozessor bremst.
 
  • Gefällt mir
Reaktionen: .Sentinel. und Asghan
Vendetta schrieb:
ja, der PCI-E 3.0 Prozessor ist schneller als der ca. gleich teure PCI-E 4.0 Prozessor in dem einen Spiel von hunderten, wo man auf einer 5700XT minimale Leistungszuwächse beim Sprung zu PCI-E 4.0 verzeichnen konnte.

Intel wird an allen Fronten gebasht für ihre CPUs aber sie liefern nach wie vor die Krone bei High Refresh Rate Gaming. Was kümmert es mich, wie schnell Youtuber XY sein bescheidenes Video rendert, mein Rechner ist zum Spielen da und wenn ich mal wirklich ein Video schneide oder Sachen archiviere werde ich wegen 1 Minute längerer Rechenarbeit auch nicht sterben.

Und für 4k mit Max Settings Vergleiche kann man auch nen 150 Euro Prozessor verbauen, kommt das gleiche raus. (Außer bei RTS games, aber auch hier brilliert wieder Intel)
Dir ist klar, das du eine 10% Differenz niemals unterscheiden können wirst?
Ich bin ehrlich gesagt überrascht, das es nach Tech nur 10% sind, hätte mit 15% gerechnet.
Aber genau hier ist der Knackpunkt, die Differenz ist irellevant aber der Preis nicht.
 
Zurück
Oben