Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

m.Kobold schrieb:
In welchen universum ist denn eine 2080 Super langsamer als eine 2080er?

Ich glaub du hast eher einiges nicht verstanden...
Lies den zitierten Text nochmal.


Der 4K-Unterschied zwischen der RTX 2080 Super und der RTX 3080 sind bereits 60%, der Unterschied zwischen der RTX 2080 und der RTX 3080 dürfte somit noch ein paar Prozente mehr sein.
 
  • Gefällt mir
Reaktionen: engineer123, Holindarn und m.Kobold
Pisaro schrieb:
Das habe ich auch nie geschrieben. Es wurde gefragt wann die anderen Karten getestet werden. Das war meine (korrekte) Antwort.

Du hast darauf geantwortet
Reset90 schrieb:
Wo gibts das NDA? hätte jetzt nicht gedacht, dass es öffentlich irgendwo aushängt.

Und dein Link führt nicht zur NDA ;)
Aber das ist eigentlich unwichtig
 
Dural schrieb:
Da gpu nie 100% skalieren, und überhaubt die 3080 rennt oft im cpu limit.

Geht wieder in den kindergarten.
Du meinst die Shader skalieren nicht zu 100% mit steigender Anzahl. Nur es gibt auch noch IPC und Takt und der zusammenhängende Verbrauch, was auch mit der Fertigung zusammenhängt. RDNA2 ist eine unbekannte.
Heißt jz nicht dass die Radeon schneller wird, unmöglich ist es aber somit nicht.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Sehr schöner und umfangreicher Test mit einem tollen Stück Hardware. Da dürften ja kaum Fragen offen geblieben sein. Danke CB!
 
  • Gefällt mir
Reaktionen: EL-SANTO
gr1nd schrieb:
Der Vergleich hinkt, wie fast jeder Autovergleich. Die wenigsten fahren durch die Gegend, weil das ihr Hobby ist. Es geht hier um einen "Gegenstand", der einen erforderlichen Zweck erfüllt. Die Grafikkarte ist, wenn man damit nicht unbedingt Geld verdient o.Ä., nice to have. Ein Auto ist für viele Menschen kein nice 2 have, sondern ein must.
Und welches Auto kostet 1000 Euro in 2 Jahren inkl. Anschaffung?
Und die GPU bringt auch mehr Spaß ;)

Ging einfach mal darum, dass diese Debatte um SPIELZEUGE preislich immer POV ist.

Bzw. alles BLickwinkel Thema.

Hobbys im Freundes- und Bekanntenkreis sind Pferde, Modellbau, motorisierte Boote (Hartrumpf und kleine Schüsseln bis 5 Meter , keine Yachten!) , Haus und Garten, Autos selfservice + Basteln/tunen, Golf, Mode, Radsport, Tennis, Reisen und/oder regelmäßig Essen gehen.

1000 Euro für 2 Jahre sind hier sowas von am Ende der Liste. It's not even close. Worüber reden wir? (Ja, alles eine Einkommenfrage etc. )

Mein Punkt: Macht Euch weniger Kopf um die Leute, die sich keinen Kopf machen müssen um diese Hobbyausgaben :)

Early adopter und Enthusiasten finanzieren doch das obere Ende der Preisskala. Lieber so als dass die 3080 so viel wie eine 3090 kostet.
Womit wir wieder bei der 2080Ti wären.

Die war das wert, was sie einem wert war ^^
 
  • Gefällt mir
Reaktionen: Drummermatze, MeisterOek, Grundgütiger und 2 andere
m2020 schrieb:
Warum wohl? Seine Traumwelt ist ihm lieber als die Realität. Einfach den Nvidia Fanboy nicht ernst nehmen.
Ich warte gerade bis meine Netshare config auf alle Ordner übertragen wird, ich habe Zeit :D
Aber macht doch Spaß darüber zu diskutieren, solange keiner ausfallend wird.
 
MRM schrieb:
Es gibt ein Igors Lab Video dazu - er empfiehlt eher ab 650W, aber besser was im 700W+ Bereich (aber 1000W müssen es nicht sein ;) )
Ist die Aussage nicht auf übertaktete/Boardpartnerkarten bezogen?
 
thebagger schrieb:
Gibts bei Igor auf der Seite. Er hat sowohl 10900K als auch 3900XT getestet. Beide in etwa gleich. Netzteilempfehlung auch da zu finden.
Nein- Gibts nicht. Keine Messwerte. Nur der Hinweis, dass er ganze Messreihen gestrichen hat, weil beide CPUs ins Limit liefen.
 
  • Gefällt mir
Reaktionen: Esenel, KlaraElfer und xexex
@Wolfgang
Leicht enttäuschend was die effizienz angeht.

Ich finde ja, OC ist so uninteressant, wie es nur sein kann, schon zu Ampere, und hier genau so.
Wie schaut es aus mit stärkerem UV?

z.B. (falls Nvidia den Voltage bereich nicht geändert hat) mit 0,800v, 0,900v und 1,000v? Welche Taktraten damit möglich sind im vergleich, und wie da leistung zu Stromverbrauch aussieht.

Meine GTX 1080 habe ich von Stock 220w auf 140w runter (kompletter Rechner <240w), bei maximal 5-7% Leistungsverlust.
Oder 165w~ bei identischer Leistung (etwas weniger Takt, dafür mehr Speichertakt als bei Stock).


Wenn man eine 320w 3080 dann auf 200-240w drücken kann, bei <7% Leistungsverlust, wäre das schon deutlich interessanter als so ein Quatsch mit 320w Stromverbrauch.
 
  • Gefällt mir
Reaktionen: MeisterOek, GreyPrinceZote, cookie_dent und 2 andere
danyundsahne schrieb:
Weil auch ALLE eine 2080ti oder eine 3080 haben ! Ist klar! :D
Es ging um die Testredaktionen, wäre blöd wenn die keine 2080Ti und 3080 hätten^^

Weil die auf Zen2 umgestiegen sind ist es jetzt für die 1440p Nutzer schwieriger sich über die reale Leistung der GPU zu informieren.
 
  • Gefällt mir
Reaktionen: .Sentinel.
HessenAyatollah schrieb:
Ich würde mein letztes Hemd drauf verwetten das die 3070 auf keinen Fall annähernd so schnell wie 2080Ti ist! Kannst mich ja gerne nochmal zitieren wenn es nicht stimmt!
Nvidia sagt sie ist schneller als die 2080Ti in Rasterization und Raytracing/DLSS. Die genauen Vorraussetzungen haben sie aber noch nicht kund getan. Ich rechne auch damit, dass die 2080Ti die bessere Karte sein wird, ich meine teilweise ist sie "nur" 20% langsamer als die 3080 und die 3070 ist ein kleinerer Chip, nichtmal im Vollausbau. Nvidia sollte den preis auf 399 runtersetzen, das wäre angemessener. Naja vielleicht müssen sie das auch, sobald AMD in den Ring tritt.
 
Piledriver schrieb:
Da es ja so mancher vergessen zu haben scheint: Nvidia-NDA als Maulkorb für Journalisten. Könnte etwas damit zu tun haben. CB hat das Ding damals ja auch sehr flott unterzeichnet...! Heise hat bisweilen noch keinen Test zur 3080 vorgelegt...
Das ist kompletter Quatsch. Wäre Heises Interpretation richtig gewesen, müsste ich nach den ganzen Leaks, die z.T. ja auch auf den Blueprints der Originalplatinen basieren, schon längst im Knast sitzen. Das NDA haben damals (noch bei Purch) vier geeignete US-Anwälte geprüft und sich über Heise und die deutsche Besserwisserei amüsiert. Delaware ist auch so ein Punkt. Der Redakteur, dessen Auftragswerk damals vom Chef persönlich initiiert wurde und faktisch allen anderen Kollegen eine gewisse Unterwürfigkeit vorgeworfen hat, ist heute längst Geschichte. Mohr, Schuldigkeit und so. Jetzt sitzt auf der gleiche Stelle Herr Spille, Ex-PCGH-Redakteur. Samples bekommt Heise deswegen trotzdem nicht von NV.
 
  • Gefällt mir
Reaktionen: gesperrter_User, Öcher Tivoli, thuNDa und 8 andere
Ma ne andere Frage. Was bedeutet bei NVIDIA eigentlich ab 17. bestellbar? Hätte gerne noch ein abbekommen. Also muss ich früh aufstehen oder einfach spät ins Bett gehen?
 
Wann gab es zuletzt eigentlich von Nvidia GPUs, die sich derart schlecht haben übertakten lassen, weil man sie schon im Auslieferungszustand bis an die Kotzgrenze geprügelt hat?

Aber gut, wenn Nvidia für 5% mehr Performance die Karte um 50W nach oben prügelt, dann wird das (s)einen Grund haben. ;)
 
pipip schrieb:
Du meinst die Shader skalieren nicht zu 100%. Nur es gibt auch noch IPC und Takt und der zusammenhängende Verbrauch, was auch mit der Fertigung zusammenhängt.
Heißt jz nicht dass die Radeon schneller wird, unmöglich ist es aber somit nicht
Ich kann mir ehrlich gesagt nicht vorstellen, dass der Takt erhöht wird, eher gehalten, im best Case (Stock)
Es gibt ja (bereits dementierte) Gerüchte, das die PS5 schlecht laufen soll, aufgrund schlechter Ausbeute. Das würde wohl am ehesten am hohen Takt liegen.
 
  • Gefällt mir
Reaktionen: Holindarn
FormatC schrieb:
Das ist kompletter Quatsch.
Hi Igor. Genau so ist es. Die Zeiten, zu denen man bei heise von qualitativ hochwertigem Journalismus ausgehen konnte, sind leider längst vorbei.
Btw: Sehr guter Test der 3080 von Dir! :)
 
  • Gefällt mir
Reaktionen: voalirus, KlaraElfer und .Sentinel.
Ich weiß High-End GPU und Strom sparen macht wenig Sinn, aber in der heutigen Zeit finde ich es nicht in Ordnung, dass Nvidia für 4% mehr Leistung 50W Strom verballert. Dieser Bereich hätte für Overclocker zur Verfügung stehen sollen, aber nicht für die Grundeinstellung der Karte. Die Karte verliert dadurch nicht nur an Effizienz, sondern sie pusht noch den Kauf überdimensionierte Netzteile, die ihrerseits auch mehr Strom verbrauchen. Es muss ja nicht gleich der Kühler aus veganem Aluminium gebaut werden, aber so ein bisschen grün darf auch eine High-End-GPU sein.

P.S. warum ist der eigentlich effizientere Chip so ineffizient bei Standardaufgaben wie Videostreaming oder Dual-Monitor?
 
  • Gefällt mir
Reaktionen: nikky, voalirus, MeisterOek und 4 andere
Zurück
Oben