News Leistung pro Euro: Welche Grafikkarte leistet wie viel zu welchem Preis?

blackiwid schrieb:
Was hat jetzt Notebooks mit Desktopgrafikkarten zu tun?
Du sprachst doch von 720p, nicht ich.


blackiwid schrieb:
FG weiss ich nicht mal was du da meinst, kenn nicht deine persoenlichen 2 Buchstabenabkuerungen alle, alle Benchmarks testen in der Regel Raster und RT, wenn du gerne tausend andere Benchmarks machen willst kannst das gerne machen und verlinken.
Frame Generation kann ich in "Raster" aktivieren und macht deutlich mehr wie die 2 bis 3% eben zum Beispiel in Witcher Remastered einen riesigen Unterschied von >30%.
blackiwid schrieb:
Wenn ich aber klar sage was ich vergleiche, und in dem Artikel das eine Diagram nunmal FPS Rasterisation / Euro misst, dann kann ich doch sagen das man dieses Diagram mit vorsicht geniesen sollte, da die CB Werte nunmal zu den schlechteren Tests für AMD gehört.
Es gibt keine relevante Abweichung des CB Tests. Der CB Test liegt genau im Schnitt wenn du Tinas Wonderworld herausnimmst und so ist es abhängig von den Spielen welche Grafikkarte schneller ist.
Wie man es dreht und wendet: Die Radeon ist nicht schneller, es sei denn man versteift sich auf 3% in 4K Raster, welche genauso mit zukünftigen Nvidiatreibern wieder weg sein könnten.
blackiwid schrieb:
Wenn dich ausschließlich oder 99% RT interessiert dann ist das ja schön für dich... sei dir nicht genommen, aber muss ich das deshalb auch so sehen?
Eher so 30% RT 70% Raster.
blackiwid schrieb:
Du vergleichst einen echten Preis mit einem von dir vermuteten, ok sehr serioes damit hast mich und den schreiber des Artikels aber widerlegt das AMD das beste Preis/Leistungsvehaeltnis hat.
Das ist ja keine Vermutung, sondern der Preis anhand der aktuellen Steuer und Eurokurs.
Und der wird kommen, da wir schon 1000 RTX 4070 Ti im Lager liegen haben.
blackiwid schrieb:
Der wo Nvidia 4% vorne sah z.B. aber auch dieser Pauls Youtube Test hab doch genau aufgelistet muss ich mich jetzt widerholen?
Abhängig von den getesteten Spielen.
Ich nehme 5 Spiele bei Computerbase raus und dann ist die Nvidia sogar 5% vorne. Und nun?
blackiwid schrieb:
Es gibt keine was?
Merkwürdigkeiten.

blackiwid schrieb:
und wie gesagt es gab hier extra eine Umfrage zu RT und den meisten geht es weitgehend am Arsch vorbei,
Es gab hier keinerlei Umfrage zu RT unter Nutzern einer GPU die über 1000 Euro kostet, sondern alle haben abgestimmt. Das ist was völlig anderes als das was du suggerieren möchtest.
Klar dass einen RX 5700XT User kein RT interessiert
 
  • Gefällt mir
Reaktionen: Taxxor und b|ank0r
Chismon schrieb:
Daran sieht man aber auch, wie weit die Karte hochgezuechtet wurde (am Effizienz-Sweetspot vorbei) bei den Werkseinstellungen um ja den laengsten Benchmarkbalken zu zeigen.
Welche Karte auf dem Markt wird am Effizienz Sweetspot betrieben? Keine.
Chismon schrieb:
Ob so ein extremes UV dann noch lohnend/sinnvoll ist, sei einmal dahin gestellt,
Ja was nun? Natürlich ist es lohnend, wenn man die effizienteste Karte möchte.
Kaufe ich eine Karte und betreibe sie im Sweet Spot und rufe nur dann Leistung ab, wenn ich sie brauche, spare ich Strom. Die RTX 4090 ist in gewissen Limits fast doppelt so Effizient wie die Konkurrenz.
Chismon schrieb:
Das deutet doch auch darauf hin, dass eine RTX 4090 fuer fast alles in Sachen Gaming aktuell "overpowered" ist (deshalb wird auf UV und Strom sparen gesetzt bei einer 2000(+) Euro dGPU...
Einerseits schimpfst du darüber, dass die Karte hochgezüchtet wurde und auf der anderen Seite wäre sie eh zu "overpowert" und UV sei nur ein Alibi-Argument, weil die Karte so teuer ist.
Man liest zwischen den Zeilen, dass dich die 4090 wurmt.
Chismon schrieb:
wenn immer mehr bei der Entwicklung am Kundenbedarf vorbei entwickelt wird und dieser mit unfertigen Aufpreisfeatures (RT-RT, DLSS3/FSR3/FG, usw.) als Beta-Tester gekoedert wird.
Software ist nun mal nicht von heute auf morgen da, sondern braucht seine Zeit.
Wer wird denn geködert? Dann kauft man eben nicht.
Chismon schrieb:
Mittlerweile ist den Leuten auch Prestige/Status, welches/welchen diese unsinniger Weise damit verbinden, wichtig und leider sind das auch Gruende fuer die immer mehr ausartenden Produktpreise
Das gibt es in jeder Branche.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Ragnarök88 schrieb:
Karte auf dem Markt wird am Effizienz Sweetspot betrieben? Keine.
Hast Du alle selber diesbzgl. getestet? Nein, duerftest Du nicht, aber wieso schreibst Du dann so karierten Bloedsinn, auch wenn Du keine Ahnung hast?

Ragnarök88 schrieb:
Ja was nun? Natürlich ist es lohnend, wenn man die effizienteste Karte möchte.
Eine RTX 4090 Luxusklassekarte - um etwas Strom zu sparen - kaufen lohnt und um Teil des Leistungspotentials (fuer das man mitbezahlt) brach liegen zu lassen macht Sinn.
Genau, wenn man sonst keine Probleme hat oder sein Geld scheinbar zu schnell/einfach verdient :rolleyes: .

Ragnarök88 schrieb:
Man liest zwischen den Zeilen, dass dich die 4090 wurmt.
Mich wurmt die Karte gar nicht, nur zieht (Deine) nVidia Propaganda bei mir eben nicht, aber das duerftest Du ja mittlerweile gemerkt haben ;).

Ragnarök88 schrieb:
Wer wird denn geködert? Dann kauft man eben nicht.
Ja, das werden einige wohl auch tun, die sich im Nachhinein verkackeiert gefuehlt haben wie beim Kauf der vom nVidia CEO damals hoch so gelobten Vanilla RTX 2060 (6GB) nicht lange bevor die 8 GB Super Verison erschienen, die RT-RT wenigstens fuer Einsteiger noch halbwegs vernuenftig herueber bringen konnte und das ist nur ein Beispiel von etlichen bei denen nVidia versucht hat die Kaeufer Ihrer Produkte durch den Kakao zu ziehen.

Ragnarök88 schrieb:
Das gibt es in jeder Branche.

Nicht wirklich in dem Sinne/Ausmass, bspw. bei Lebensmitteln kaufen sich Leute Luxusartikel, weil diese sich solche goennen wollen und nicht daraus ableiten das eigene Selbstwertgefuehl zu steigern und auch meist nicht vordergruendig aus Prestige-/Status-Gruenden gegenueber anderen.
Es gibt dort auch nicht solche "Glaubens-/Markenkriege" wie bei PC Hardware, insbesondere bei GPUs und CPUs.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
Ragnarök88 schrieb:
Du sprachst doch von 720p, nicht ich.
Ich sagte das Leute keine Karte kaufen für >1000 Euro um damit 720p zu spielen... was dein "Argument" das auf Notebooks (mit 12-17" Monitoren und keine Grafikkarten in der Regel) zu tun haben soll oder wie das diese Aussage entkraeftigt ist mir ein Raetzel, ich hab auch das Wort "du" benutzt, kannst doch auch jetzt sagen das die Schule doch toll ist weil "du" dort auch warst, ein Zusammenhang kann man nicht nur anhand eines Gemeinsamen Wortes oder Begriffes herstellen es muss schon irgendwie logisch irgendetwas mit einander zu tun haben.
Ragnarök88 schrieb:
Frame Generation kann ich in "Raster" aktivieren und macht deutlich mehr wie die 2 bis 3% eben zum Beispiel in Witcher Remastered einen riesigen Unterschied von >30%.
Das geht aber nur mit Einbusen von Bildqualität, so "ratet" der Algorytmus wie ein Mittelbild aussehen sollte, da kann er also auch falsch liegen, Beispiel man sieht ein Auto vorbei fahren das bis zu kurz nach Frame 1 konstant fährt und danach abbremst, nun kann der Algorithmus nun den Mittelframe das Auto nur in die Mitte rein bauen obwohl vermutlich weiter gefahren ist an dem Punkt. Das selbe in Shootern z.B. wo man dann einen Gegner an ner Position sieht wo er gar nicht ist, und dann auf nen Geist schießt. Dazu kommt das dies nicht kostenlos geht, die Grafikkarte wird dadurch auch belastet und kann dadurch weniger echte Frames erzeugen. Das kann manchmal positiv oder negativ sein, dazu kommt das AMDs FSR 3.0 das auch hat, und das steht unmittelbar vorm Release... von daher ja man bekommts bei Nvidia nen paar Wochen (ab jetzt gesehen zumindest) oder vielleicht 1 Monat früher, maximal 2 Monate auf breiter front... das kann für manche entscheidend sein ich würde aber lieber permanent 4% mehr Rasterisierungleistung (mit Potenzial zu mehr) bevorzugen als Wochen / 1-2 Monate früher das Feature.
Ragnarök88 schrieb:
Es gibt keine relevante Abweichung des CB Tests. Der CB Test liegt genau im Schnitt wenn du Tinas Wonderworld herausnimmst und so ist es abhängig von den Spielen welche Grafikkarte schneller ist.
Ja der Test ist aber mit drin, daher liegt er nunmal nicht im Schnitt, würde ich die Nvidia Karte in nen überhitzten PC packen und er würde hin und wieder drosseln, käme vielleicht auch der Schnittabstand raus, aber ich verstehe nicht was diese komischen "wenn dann wäre es richtig" aussagen sind, die Bedingung damit der Test im Schnitt ist ist ja aber nicht gegeben. Und es ist nur 1 von zig Möglichkeiten das richtige Ergebnis heraus zu bekommen.

Du kannst ja sagen das die Mehrheit der Tests AMD lastige Spieleauswahl haben und das du Computerbase und 1-2 Andere Seiten dafür lobst das sie ne faire Auswahl treffen und damit AMD fair bewerten, ich halte die Aussage das die meisten Webseiten fair sind und Computerbase absichtlich oder nicht eher Nvidialastige Spielauswahl hat für wahrscheinlicher. Und bei ner quantitativen Analyse ist das auch der naheliegendere Schluss.

Ich koennte jetzt auch sagen irgend ne Seite die 10% pro AMD raus gebracht hat waere doch richtig wuerde irgend ein Spiel wo AMD am besten da steht nicht dabei sein, und daher ist dieser Test wo AMD 10% vorne ist sehr plausibel, das ergibt doch keinen Sinn, deshalb bezieh ich mich auf den Schnitt und auf Reputation von Redaktionen um mich einem realistischen gemittelten Wert an zu nähern.

Ragnarök88 schrieb:
Wie man es dreht und wendet: Die Radeon ist nicht schneller, es sei denn man versteift sich auf 3% in 4K Raster, welche genauso mit zukünftigen Nvidiatreibern wieder weg sein könnten.
Hier wirds besonders albern, welche Hinweise deuten fuer dich darauf hin das Nvidia mit Treibern nicht nur Geschwindigkeitsgewinne erlangen kann sondern das diese hoeher sind wie Gewinne die AMD einfahren kann? Das voellig Spekulativ, dagegen kann ich auf den Test den du so verteidigst von CB verweisen das bessere Treibercompiler also bessere Treiber die Karte beschleunigen wird:
Nun ist es die Aufgabe des Treiber-Compilers, möglichst viele Befehle Dual-Issue-tauglich zu machen – und deswegen spricht AMD auch davon, dass in Zukunft mehr Programme doppelt so schnell ausgeführt werden als aktuell.
Was man auch bei den neueren Spielen sieht die ja wichtiger sind wie irgendwelche Altspiele sind die eh im Schnitt weniger Ressourcen verbrauchen/benutzen um anständig zu laufen als neue Spiele und bei den neuen Spielen sieht dann selbst CB gar 5% Vorsprung zur RTX 4080.
Ragnarök88 schrieb:
Das ist ja keine Vermutung, sondern der Preis anhand der aktuellen Steuer und Eurokurs.
Und der wird kommen, da wir schon 1000 RTX 4070 Ti im Lager liegen haben.
Nur weil du vielleicht gewisse Indizien hast, heisst das nicht das du es mit Sicherheit weisst, und woher willst wissen wie sich die AMD Preise in dieser Zeit verhalten das die alle 100% stabil bleiben, da ist natuerlich viel Vermutung bei.
Ragnarök88 schrieb:
Abhängig von den getesteten Spielen.
Ich nehme 5 Spiele bei Computerbase raus und dann ist die Nvidia sogar 5% vorne. Und nun?
Ja deshalb muss man die Spieleauswahl irgendwie begründen, ich hielte es Anhand von aktualisiert und Beliebtheit der Kundschaft und wenn es z.B. 50 Spiele gibt wo AMD besser da steht und 50 wo es Nvidia tut sollten im Test auch 5 jeweils eher zur einen seite oder zur anderen Seite dabei sein. Auch würde ich extreme Einzelbeispiele aussieben, außerdem entscheide dich mal, entweder sind 3-5% irrelevant dann brauchst auch nicht versuchen die Spieleauswahl zu rechtfertigen oder sie sind relevant dann hab ich das Argument gewonnen und dann kannst sagen warum die Spieleauswahl so toll ist und warum wir Computerbase mehr vertauren sollten als allen anderen seriösen Seiten bzw dessen Schnitt?
Ragnarök88 schrieb:
Es gab hier keinerlei Umfrage zu RT unter Nutzern einer GPU die über 1000 Euro kostet, sondern alle haben abgestimmt. Das ist was völlig anderes als das was du suggerieren möchtest.
Klar dass einen RX 5700XT User kein RT interessiert
Ja glaubst die 1000 Leute die hier pro Nvidia pro AMD und co reden das die alle solche Karten kaufen werden? Nein die Meinung über die Karten dürfen nicht nur Leute haben die diese kaufen.

Es ist natuerlich auch entscheidend was Leute die die Karten gar nicht kaufen über diese Karten denken, warum, weil anhand dessen wie die Highendkarten von der Mehrheit häufig schon fast blind die kleineren Modelle gekauft werden.

Und ja mit ner Umfrage das alle Computeruser das Thema nicht so wichtig ansehen deutet auch darauf hin das es diese Untergruppe von Käufern ähnlich sieht, das muss nicht so sein aber es ist wahrscheinlicher.

Die Frage wäre auch wieso bei vielen auch Nvidia Kunden die 7900 XTX vor dem Release dann so begeistert erwartet haben, denn das die mit RT nicht gleichziehen können war bekannt, dort wurde zumindest das versprochene geliefert wenn nicht gar übererfüllt. Niemand hat erwartet das sie da zu aktuellen Gen von Nvidia aufschließen kann.

Wen also die Mehrheit der >1000 Euro Kaeufer extrem hohen Wert auf RT setzen dann haette es den Hype um die Karte niemals geben dürfen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
blackiwid schrieb:
Das geht aber nur mit Einbusen von Bildqualität, so "ratet" der Algorytmus wie ein Mittelbild aussehen sollte, da kann er also auch falsch liegen, Beispiel man sieht ein Auto vorbei fahren das bis zu kurz nach Frame 1 konstant fährt und danach abbremst, nun kann der Algorithmus nun den Mittelframe das Auto nur in die Mitte rein bauen obwohl vermutlich weiter gefahren ist an dem Punkt. Das selbe in Shootern z.B. wo man dann einen Gegner an ner Position sieht wo er gar nicht ist, und dann auf nen Geist schießt.

nein so funktioniert das nicht.
nennt sich future frame rendering.


der computer hat 2 frames, bild 1 und bild 2 und setzt noch eins dazwischen, bild 1.5

es gibt keine geister und der (grafik)computer rät auch nicht sondern baut sich nen bild zusammen aus 2 bereits existierenden (real berechneten)
 
  • Gefällt mir
Reaktionen: Backfisch
Melu76 schrieb:
der computer hat 2 frames, bild 1 und bild 2 und setzt noch eins dazwischen, bild 1.5
Ja hab ich doch identisch gesagt, er erfindet ein Frame und hofft das der Zwischenframe so aussieht, wirklich wissen kann ers nicht. Oder stellst du hier die These auf das jeder echte Frame 100% identisch wäre zu diesem erzeugten Zwischenframe?

Anderes Beispiel die Filme von Ufos die ganz flott nach rechts und dann ganz schnell nach links gehen so wie es mit unseren Flugzeugen heute nicht möglich wäre schon gar nicht bemannt. Wenn Zwischen Frame 1 und 2 die Richtung schon geändert wurde würde er das nicht richtig wieder geben

Beispiel Ufo fliegt 2cm nach rechts dann 1cm nach links (aufm Bildschirm) und dann kommt frame 2 dann wäre frame 1.5 bei 0,5cm nach links obwohl die korrekte Position auch 1cm nach links wäre. In dem Beispiel wäre auch bei echtem Frame das Bild eher unbefriedigend und würde viel Information verlieren, aber es ist ja nur ein Beispiel um zu zeigen das der Algorithmus nicht stimmen muss...

Außerdem selbst wenn das verfahren perfekt wäre, cherry pickst dir doch nur 1 Argument das du glaubst widerlegen zu können und ignorierst das selbst wenn es perfekt wäre es relativ egal wäre da FSR 3.0 das auch kann.
 
Zuletzt bearbeitet:
blackiwid schrieb:
Ja hab ich doch identisch gesagt, er erfindet ein Frame und hofft das der Zwischenframe so aussieht, wirklich wissen kann ers nicht. Oder stellst du hier die These auf das jeder echte Frame 100% identisch wäre zu diesem erzeugten Zwischenframe?

it doesnt matter ;)


angenommen du hast 2 frames, weil dein Computer nur diese 2 frames darstellen kann.
wen juckt es, was dazwischen passiert, wenn du es sowieso nicht mitbekommst?


dlss3 nimmt sich diese 2 punkte (frames), zieht eine gerade und platziert auf diese geraden einen weiteren punkt (so als vorstellung) -- als effekt wird es weicher, flüssiger und erträglicher für die augen.

der benefit sind weichere bewegungen, du verlierst NICHTS wenn du es benutzt

klar du kannst jetzt sagen aber in diesem 50tel sekungen (50fps) verändert sich die szenarie so gravierend, die spielfiguren ändern in dieser 50tel sekunde MEHRFACH ihre richtung (da mal drüber nachdenken) das der berechnete zwischenschritt stark von der wirklichkeit abweicht.

abgesehen von der frage wie realistisch das ist, stellt sich dennoch die frage was du nun verloren hast.

das das berechnte bild der wirklichkeit entpricht, man deswegen mehr mitbekommt, ist viel wahrscheinlicher als das die szenerie in der 50tel sekunde irgendwelche unvorhergesehenen kapriolen schlägt.

das es bei extrem niedrigen FPS, die sowieso unspielbar wären, theoretisch dazukommen könnte was du andeutest, aber immerhin wäre es dann spielbar im bezug auf augenfreundlichkeit.

dazu kommt halt noch, das speziell die neue generation nicht gerade leistunsgschwach ist, und gerade die "niedrig FPS szenarien" kaum vorstellbar sind und man demensprechend nicht weniger sieht als die konkurrenz mit 2 jahre alter hardware, dafür hat man dann aber die 240fps auf dem 240hz bildschirm in WQHD auf Ultra


auch für shooter gilt:
eine gute schätzung als optische zielinformation ist immer noch besser als nichts


amd schätzt doch auch nur den verbrauch ihrer grafikkarten, aber besser gut geschätzt, als schlecht gemessen
 
Zuletzt bearbeitet:
Melu76 schrieb:
angenommen du hast 2 frames, weil dein Computer nur diese 2 frames darstellen kann.
wen juckt es, was dazwischen passiert, wenn du es sowieso nicht mitbekommst?
Erstmal moecht ich festhalten das wir uns hier um relativ wenig streiten DLSS 3.0 kann dies auch, damit herrscht da dann wieder Gleichstand, wieso sollte das also wichtig sein für die Wahl zwischen 7900XTX und RTX 4080?

Zweitens, wozu gibts denn eigentlich Adaptivesync das sicher jeder 240hz Monitor jetzt beherrscht?

Auch kostet es Leistung, du könntest also mehr echte Details sehen da du mehr echte Frames sehen würdest ohne die Option, daher ist die Option auch nicht die heilige Kuh. Ich sage nicht das es den Overhead nie wert ist und der Vorteil nicht in vielen oder eventuell den meisten Szenarien überwiegt, aber irgendwie vermute ich das gerade E-sportler lieber totalen Pixelmatsch haben und ein paar mehr echte FPS als höhere Setting 240hz generiert, da können solche Fehler und weniger echte FPS im Zweifel auch schaden.

Und es muss ja nicht dieser UFO Effekt sein den ich beschrieben habe, es reicht wenn die Geschtwindigkeit sich mitten zwischen der Bewegung aendert, aber keine Lust jetzt ewig drum zu streiten, wie gesagt beide Hersteller haben es von daher ist es bestenfalls ein kleine Exclusivzeit die am Auslaufen ist wenn dir diese kurze Zeitspanne fuer dieser Feature reicht freu dich, ich glaub aber nicht das das ein starkes Argument ist für die meisten, da halte ich RT z.B. fuer das deutlich bessere Argument.
 
blackiwid schrieb:
Erstmal moecht ich festhalten das wir uns hier um relativ wenig streiten DLSS 3.0 kann dies auch, damit herrscht da dann wieder Gleichstand, wieso sollte das also wichtig sein für die Wahl zwischen 7900XTX und RTX 4080?

ich dachte wir sprechen über DLSS 3 :daumen:
 
meinte natuerlich FSR 3.0, denke ergibt sich doch aus dem Kontext...

Btw da für dich diese Frame Generation so ein Killerfeature ist, ists doch witzig das diese nur für Geforce 4xxx Karten erhältlich ist, also wenn du nicht die aktuellste Karte besitzt verdankst du es AMD das du dieses Feature überhaupt auf alten Nvidia Karten hast / bekommst.

Ohne das AMD das auch dafür anbieten würde, würde der Preis/Leistungsbalken der 6800 XT und Co komplett durch die Decke gehen, also ein Versuch der geplanten Obsoleszenz von Seiten Nvidias, sollte Nvidia mal bei DSLS 4.0 oder 5.0 features bringen die AMD nicht nachbauen kann in einen allgemeinen Standard, dann wird dir das Feature künstlich enthalten und deine RTX 40xx wird künstlich mit Handbremse (oder schlechterer Qualität) rum fahren.

Ähnliches gab es ja schon mit Nvidia Sync teilweise wurde bei Laptops sogar stinknormales Adaptive Sync als Nvidia Sync vermarktet, gleichzeitig aber behauptet das dies schlecht sei und man unbedingt extrem teure Monitor Module brauche, wo jeder Monitorhersteller ne Nvidia Maut für überteuerte Hardwaremodule zahlen musste, und den Schrott hätte Nvidia bis heute exklusiv wäre der Marktdruck durch AMD nicht so hoch gewesen und der mögliche Imageschaden bzw die Preisleistung wenn man auf jede Grafikkarte noch 200 Euro zum Preis hinzuaddieren hätte müssen da man solch nen Monitor braucht extrem schlecht.
 
Zuletzt bearbeitet:
Tatsächlich IST G-Sync AMDs Variante überlegen, da ein weitaus größerer Bereich abgedeckt werden kann. Nur mal so am Rande.
 
blackiwid schrieb:
Btw da für dich diese Frame Generation so ein Killerfeature ist

ist es nicht, aber ich muss es auch nicht schlechtreden.
ist halt eine option die man antesten kann, wenn es irgendwo hakelt.

ich bin froh das ich DLSS und FSR nutzen kann :)
 
Gibt es eigentlich eine Info/Gerüchte, wann die kleineren Karten der neuen Generation AMD und Nvidia auf den Markt kommen?
 
Kommt drauf an, was du als "kleiner" bezeichnest. Die 4070 Ti kommt morgen, Tests vermutlich heute nachmittag.
 
  • Gefällt mir
Reaktionen: SIR_Thomas_TMC
Alle Versionen unter den "ich verkaufe eine Niere gegen Grafikkarte" Modellen ;)
Gibt es bei AMD (da erhoffe ich mir bessere Preise als bei nvidia) da auch Termine?
Ganz besonders interessieren mich da die "kleinsten" Versionen. So unterhalb 500€. Ich nehme an, da werd ich noch ne Weile warten dürfen.
 
Das wird eine ganze lange Weile sein, denn solange die Lagerbestände der Vorgängergeneration noch so hoch sind, werden die abverkauft bevor sie ersetzt werden.

Wenn man sich das bei Geizhals anschaut, ist nur die 3090 Ti in absehbarer Zeit schlechter verfügbar, den Rest gibts zu Hauf überall...
 
  • Gefällt mir
Reaktionen: SIR_Thomas_TMC
Artikel-Update: Auch die GeForce RTX 4070 Ti spielt jetzt mit

In der Zwischenzeit hat Community-Mitglied „Maine“ auch die Leistungswerte der neuen GeForce RTX 4070 Ti (Test) auf Grundlage des Tests der Redaktion übernommen und in das Preis-Leistungs-Ranking überführt.

Der neue Preis-Leistungs-Sieger für Raytracing

In WQHD platziert sich die GeForce RTX 4070 Ti in Sachen Rasterleistung pro Euro auf Augenhöhe mit der Radeon RX 6900 XT und landet damit hinter der Radeon RX 7900 XT im Mittelfeld. Mit Raytracing wendet sich das Blatt dann erwartungsgemäß und die GeForce RTX 4070 Ti bietet aus der neuen Generation die meisten Bilder pro Euro, gefolgt von der GeForce RTX 4080.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]

Auch in der anspruchsvollen 4K-Auflösung kann sich die GeForce RTX 4070 Ti in Sachen Raytracing-Leistung pro Euro an die Spitze setzen, während sich die Rasterleistung pro Euro weiterhin im Mittelfeld bewegt.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]

Alle Preise im Preis-Leistungs-Ranking wurden zudem auf den aktuellen Stand vom 4. Januar 2023 um 15:20 Uhr aktualisiert.
 
  • Gefällt mir
Reaktionen: Javeran, Hellyeah, schneeland und eine weitere Person
Liebäugele schon länger mit einer neuen Grafikkarte (habe aktuell eine 1070 drin) und bin mir aber sehr unsicher, welche es sein soll. Ich spiele eigentlich fast nur Arma 3 (in Zukunft 4 mit der neuen Engine) und DayZ, würde aber gerne auf ein 4K-Setup umsteigen. Da die 1070 schon ziemlich abkackt in DayZ (hat schon die neue Engine, die auch Arma 4 bekommen wird), will ich nicht länger als 3 Monate warten.

Aktuell dachte ich daran, mir eine gebrauchte 3090 TI (800-900,- €) zu kaufen. Bei dem aber jetzt angesetzten Preis der 4070 TI bin ich mir unsicher, ob diese vielleicht nicht doch die bessere Wahl wäre? Und ob die 12GB ausreichend zukunftssicher sind. Vermutlich bleibe ich auch erstmal noch eine Weile bei WQHD statt 4K, ist mir einfach zu preisspielig aktuell.
 
Zuletzt bearbeitet:
Zurück
Oben