News Umfragen zum Marktstart: Die GeForce RTX 4070 startet gut verfügbar ab 639 Euro

PatriK schrieb:
Für die Leute die anderen Realitätsverlust vorwerfen weil man keine 6800/XT 6900/6950 bevorzugt in einem Land mit den höchsten Stromkosten.
100€ in 3 Jahren, wenn ich jeden Tag 2h spiele und das Spiel die Grafikkarte auch voll auslastet. Dann wären nach 3 Jahren die 4070 und eine 6800 XT gleichauf.

Wie verhält es sich, wenn ich im Teillastbereich unterwegs bin, z.B. durch Frame-Limiter? Dann schrumpft der Unterschied schon zusammen.

Und wer zockt denn wirklich im Schnitt 2h am Tag jeden Tag, also 730h im Jahr?! Vielleicht leide ich ja wirklich an Realitätsverlust, aber ich finde das schon verdammt viel, da komme ich vielleicht auf die hälfte, vermutlich aber sogar noch weniger.
 
  • Gefällt mir
Reaktionen: McFritte
Was die 12GB VRAM angeht sehe ich in den nächsten 3 Jahren kein allgemeines Problem,
Ausnahmen gab es schon immer und wird es immer geben, fragt sich nur, ob man selbst an denen interessiert ist...

Abseits vom Preis ist die 4070 auch eine gute GPU für 1080p bis 1440p - alles darüber ist bzw. wird eben schon wegen der Rohleistung grenzwertig und der VRAM ist nur ein Teil davon.

Was die Preise angeht, ich sehe es so.
Das Hauptproblem bei den heutigen Preisen der GPUs ist, dass diese im Zuge der allgemeinen Inflation ausserhalb der Möglichkeiten bzw. der Kaufbereitschaft der potentiellen Kundschaft für das jeweilige Segment liegen.
Ausnahme ist wie immer das obere Segment (ab 4080), da sieht es natürlich anders aus, weil wer 1500€ wegstecken kann, der wird auch 2000€ locker überleben - einige haben schon früher die Titan gekauft...


Übrigens,
meine 1070 hat mich im Juli 2016 glatte 519€ gekostet (heute wären es >605€) plus 125€ für den Kühler und das war es mir durchaus wert. Im Nachhinein hätte ich lieber zwei Scheine für eine 1080 drauf gelegt.

Farcrei schrieb:
Genau aus diesen Gründen bin und war ich bei diesem Thema schon recht Stur.

Ich war es bei den Scalpern, aber die Hersteller durch Nichtkauf zu bestraffen wird was die Preise angeht wahrscheinlich erstmal nicht viel ändern da oft eben nicht genug Spanne drin ist.
Auf längere Sicht wird es nur dazu führen, dass einige Pleite gehen, von anderen geschluckt werden, oder eben wie EVGA sich aus diesem Segment ganz zurück ziehen.
Wer übrig bleibt ist offen, aber weniger Konkurrenz wird die Preise eher nicht sinken lassen.
AMD, Intel und Nvidia haben auch andere Geschäftsfelder (Tendenz steigend) wo sie gutes Geld verdienen können - die werden es sicher auch ohne uns Gamer gut überleben.
 
  • Gefällt mir
Reaktionen: Gortha, sikarr, Fallout667 und eine weitere Person
PatriK schrieb:
Locker.

Für die Leute die anderen Realitätsverlust vorwerfen weil man keine 6800/XT 6900/6950 bevorzugt in einem Land mit den höchsten Stromkosten.

Anhang anzeigen 1348565
Wirklich jetzt, du sprichst von Realitätsverlust und kommst mit solch einer absurden Tabelle um die Ecke?

1: Längst nicht in jedem Spiel oder jeder Kombination von CPU/Grafikkarte/Monitor zieht die Grafikkarte die volle mögliche Leistung. Das gilt natürlich für alle Modelle und der prozentuale Unterschied mag dabei gleich bleiben. Die absolute Differenz in kWh bzw. Euro fällt aber dann geringer aus. Oder einfacher, der prozentuale Abstand von 1€ zu 1,5€ ist der gleiche wie 100€ zu 150€, nur interessieren die 50 Cent im ersten
Fall wohl kaum jemanden oder treiben ihn in den Ruin. Die 50€ können dann schon sauer aufstoßen.
Wie auch immer, ziehen die Grafikkarten vielleicht im Schnitt jeweils nur 70% von den Werten in der Tabelle, wird der Abstand in barer Münze immer kleiner.

2. Die 50 Cent pro kWh sind momentan völlig aus der Luft gegriffen. Wir haben eine Strompreisbremse in Höhe von 40 Cent. Ja ich weiss, für die ersten 80% des jährlichen Verbrauches. Da der PC aber ganz sicher nicht der einzige Verbraucher im gesamten Haushalt ist, muss man fairerweise genau ausrechnen, welchen Anteil allein die Grafikkarte hat und diesen dann 80/20 bei den Kosten aufteilen. Dann kommen am Ende natürlich etwas über 40 Cent raus, aber wie man auf 50 Cent kommen will...da muss der Anbieter für die letzten 20% schon vielfaches pro kWh berechnen das geht dann wohl eher in den 2-stelligen Eurobereich pro kWh.

3. 4 Stunden täglich im unteren Teil der Tabelle? 7 Tage die Woche, 365 Tage im Jahr? Keine Krankheit, kein Urlaub, keine anderen Verpflichtungen (Familienfeiern, Lebenspartner, Partys mit Freunden, Sport/Vereine, Volksfeste...) oder andere Hobbys, wo das Gaming mal ausfällt? Da würde ich echt mal mein Leben überdenken.
Ich kenne zwar einige Hardcoregamer, aber konstant auf durchschnittlich 120 Stunden im Monat kommen die lange nicht. Im Herbst/Winter mit 2-3 Wochen Urlaub klar, aber nicht in den anderen 11 Monaten. Da bleiben dann nur professionelle E-Sportler und Streamer/Youtuber über und die interessiert es vermutlich eher weniger, da sie damit Geld verdienen und den Verbrauch auch noch als Kosten von den Steuern absetzten können. Davon das bei denen mit oft 3 oder mehr Monitoren und extra Videoschnitt/Streaming-PC die 100 Watt mehr einer AMD-Karte im Grundrauschen untergehen mal ganz abgesehen.

P.S. alle diese Gründe gelten natürlich auch bei dem "Verbrauchskrieg" Intel vs. AMD. Ja Intel schluckt mehr, nur am Ende im realen Betrieb wird man auf der Jahresabschlussrechnung als Normal-Bürger/Gamer kaum etwas davon merken. Wenn man nicht gerade 24/7/365 im Jahr Cinebench in Endlosschleife laufen lässt oder ähnliches macht. Mich nervt da bei Intel eher die größere benötigte Kühlleistung bzw. die Lüfterlautstärke.
 
  • Gefällt mir
Reaktionen: C0rteX, Mensor und conglom-o
C0rteX schrieb:
@Caramelito
Wenn ich jetzt kaufen müsste, ist eine 12 GB Karte uninteressant. Ich habe einen LG C1. Ich spiele also auch neben 1440p, auf 4k. Da in wqhd die 12 GB schon langsam eng werden, muss ich mehr kaufen. Meine Grenze sind 1000 Euro. Da hat Nvidia nichts was ich mindestens 3 Jahre bespielen kann.

Ergibt natürlich Sinn.
Ich würde dennoch zur 4070 greifen statt zB zur 7900 XT. DLSS Performance + DLSS3 sind da einfach besser mMn... :/
Ergänzung ()

Qonqueror schrieb:
Hast du überlesen das Navi 31 nen Hardwarebug hat der zu Leistungseinbußen führt? AMD wäre ja wohl dämlich, das bei Navi 32 zu nicht beheben.
So oder so, soll nun eine 7800 XT kommen und besser performen als die 7900 XT? ^^
Ergänzung ()

SonyFriend schrieb:
Wie macht nvidia das nur? Mit so wenig vram?
kA :(
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gortha
SonyFriend schrieb:
Wie macht nvidia das nur? Mit so wenig vram?
Angeblich soll die Speicherverwaltung bzw. die Kompression bei NVIDIA besser sein und die Karten damit immer etwas weniger VRAM benötigen als die Gegenstücke von AMD. Aber ob das stimmt 🤷‍♂️
 
  • Gefällt mir
Reaktionen: sikarr
nvidia ist einfach besser bei der Speicherverwaltung pro MByte, kann besser komprimieren oder einfach dort weglassen, wo es nicht auffällt.
intel ist in dem Bereich wohl am "schlechtesten", wenn man es so sagen will.
 
  • Gefällt mir
Reaktionen: sikarr
Die 4070 scheint aktuell doch sehr beliebt zu sein.

Ich hätte die Karte wohl bei 599 Euro eingepreist, wäre ich Nvidia. Das wäre dann wirklich ein No-Brainer.

CB106454-26CA-4DF7-A17A-16D58B3249C5.jpeg
 
  • Gefällt mir
Reaktionen: Connecto
Hier sind die offiziellen Zahlen von Mindfactory über PC Games Hardware. Den Link habe ich euch Mal drunter gepackt, damit es schön transparent bleibt. Sonst kann ja jeder alles behaupten.

Die 4070 verhilft AMD diese Woche zu fast 60 Prozent Marktanteil bei Mindfactory. 500 Karten der 4070 wurden verkauft, was jetzt für ein neues Produkt nicht gerade viel ist. Wir kennen das ja von Spielen. Die erste Woche und der erste Monat sind die wichtigsten bei den Verkäufen. Danach flacht das Interesse nur noch ab. Entspricht dem geringen Interesse der pcgh Umfrage.

Da muss Lisa der Lederjacke aber schon Mal einen Blumenstrauß als Dankeschön senden.

https://www.pcgameshardware.de/Wirt...en-RTX-4070-befluegelt-den-GPU-Markt-1417819/
Ergänzung ()

Caramelito schrieb:
Ergibt natürlich Sinn.
Ich würde dennoch zur 4070 greifen statt zB zur 7900 XT. DLSS Performance + DLSS3 sind da einfach besser mMn... :/
Ergänzung ()


So oder so, soll nun eine 7800 XT kommen und besser performen als die 7900 XT? ^^
Ergänzung ()


kA :(

Wenn der Speicherausbau 16 GB und das Speicherinterface 256 bit wäre, dann wären mir der Softwarevorsprung von einem Jahr 10 bis 15 Prozent mehr wert gegenüber einer AMD. Wird es aber nicht geben unter 1000 Euro. Zumindest nicht in den nächsten 12 Monaten.

DLSS und FSR sind halt immer eine Frage des Spiels. Das eine hat Mal da mehr ghosting, das andere dort mehr Kantenflimmern. Overall ist Dlss natürlich leicht vorn. Gibt aber auch Beispiele in denen AMD mit fsr genauso gut aussieht.

Ich habe letztens einen Spieleentwickler in Abteilungsleiterposition über fsr reden hören. Er meinte fsr ist durch die AMD Konsolen auf dem Weg zur allgemeinen Lösung wie freesync gegenüber gsync. Gibt wohl schon Deals, dass fsr quasi Grundbestandteil der gameengines auf den Konsolen wird. Da die Konsolen hier ja immer gern den Takt angeben, vermutet er das fsr Standard wird und Dlss nur noch über Sponsoring von Nvidia Verbreitung findet. Die offenen Lösungen haben da schon große Vorteile.

DLSS 3 ist als framesmoothing Technologie nicht übel. Die Verbreitung ist mit aber noch nicht annähernd genug um als echter sellingpoint zu gelten. Hinzu kommen noch ein paar Kinderkrankheiten. Aber generell ein guter Ansatz. Bin auf fsr 3 auch sehr gespannt.

Was nützt mir das DLSS 3 wenn der Speicher ausgeht, was in 4k definitiv jetzt schon mit 12 GB passiert. Vorallem brauch FG ja noch mehr Speicher. Da hast du dann Nachladeruckler und nicht mehr geladene Texturen wie im Hardware unboxed Video. Als wqhd Karte ist die 4070 und 4070 ti ganz okay, aber man sollte sich dann zur nächsten gen schon Mal auf einen frühzeitigen Neukauf vorbereiten. Für den Preis natürlich nicht akzeptabel, aber das sind auch die jeweiligen usecases. Für mich wie gesagt nicht zu gebrauchen.

Bei der 7900xt bekomme ich ausreichend Speicher für die nächsten 3 Jahre und 10 Prozent mehr Rasterperformance als die 4070 ti. Die ist für mich und viele andere immernoch das Entscheidende. Raytracing ist sie 8-10 Prozent langsamer. Ich finde den tradeoff in Ordnung.

Die 7800xt wird sich ohne Bug anders verhalten als die 7900xt. Vielleicht kommt ja danach auch zeitnah ein refresh der 7900 xt und XTX ohne Bug. Wenn die 7900er 20 Prozent durch den softwarefix underperformen , dann ist da auf jeden Fall noch was zu holen. Deshalb kaufe ich auch zwischen den gens und nie bei Release.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Dittsche
Qonqueror schrieb:
Wenn jetzt also die 7800XT ohne diesen Hardwarebug kommt und wie die 7800W 70 CUs hat, dann könnte sie der 7900XT (84 CUs) schon gefährlich nahe kommen.
60 CUs und der "Hardwarebug" wird sicher nicht das an Mehrleistung bringen bzw. an Mehrtakt was hier manche sich erträumen.

https://www.3dcenter.org/news/gerue...u-radeon-rx-7500-7600-7600-xt-7700-xt-7800-xt

Qonqueror schrieb:
(Wer von einer GPU Gen auf die Nächste wechselt, hat vernünftige Zuwächse eh nur bei den Topmodellen wie der 4090)
Preise sind bei NVIdia wirklich etwas hoch bei den beiden Topmodellen. Jedoch stimmt deine hier zitierte Aussage einfach nicht. Von Ampere nach Ada Lovelace sind alle Karten enorm schneller als der Vorgänger.

Die 4090 hat ~50% Leistung als 3090. Auch eine 4080 hat ~50% mehr Performance als die 3080. Bei der 4070Ti ist es ähnlich, diese ist wesentlich schneller als die 3070Ti, etwas über 50% mehr Performance.
Alleine die kleine und dafür wesentlich günstigere und mit bessere P/L-Verhältnis versehende 4070 non-Ti weicht hier ab, unter Raster sind es "nur" 23% mehr Performance und unter Raytracing 36%.

Das sind alles Steigerungen die man sehr wohl merkt beim Spielen. Das ohne DLSS3 Framegeneration.
Da ist AMD (LEIDER) weit von entfernt. Zumindest bei den 7900ern.

Lassen wir uns mal von der 7800 XT und den beiden 7700ern überraschen.
Aber leider erst im Sommer und damit hat NVidia schon wieder viel Markt mit der 4070 non-Ti eingeheimst.
Ergänzung ()

TigerherzLXXXVI schrieb:
....auch wenn 12GB Videospeicher in zwei Jahren nur noch für 1080p ausreichen wird...
Ich denke die armen 4070er Besitzer werden nichtmal mehr in 720p spielen können und müssen auf 640p oder gar 480p runter gehen.
Das steht fest.
Ergänzung ()

McFritte schrieb:
Wirklich jetzt, du sprichst von Realitätsverlust und kommst mit solch einer absurden Tabelle um die Ecke?

1: Längst nicht in jedem Spiel oder jeder Kombination von CPU/Grafikkarte/Monitor zieht die Grafikkarte die volle mögliche Leistung. Das gilt natürlich für alle Modelle und der prozentuale Unterschied mag dabei gleich bleiben.... blablablubb

Seine Tabelle hat vollkommen Hand und Fuß. Etwas Effizienteres als eine 4070 oder 4070Ti, ggf noch ne 4080 gibt es nicht, besonders wenn man UV-OC oder PL-UV+OC macht. Ich kenne seeeehr viele Leute die über 365 Tage im Jahr sehr wohl 2 Std im Schnitt spielen. Manche mehr, manche weniger. Kommt auf Alter, Kinder, andere Hobbys und Verpflichtungen an.
Wenn man durch ein effizientes Setting seiner Hardware nen hunderter oder Zwei sparen kann, sehr gut. Ggf. mehr Geld für die nächste Graka.
 
Zuletzt bearbeitet:
Gortha schrieb:
Ich kenne seeeehr viele Leute die über 365 Tage im Jahr sehr wohl 2 Std im Schnitt spielen. Manche mehr, manche weniger. Kommt auf Alter, Kinder, andere Hobbys und Verpflichtungen an.
Die haben dann in 3 Jahren bei (40Cent Kwh) 50€ mehr für Strom ausgegeben. Bei meinen aktuell 24 Cent sind es ganze ~30 Kröten in drei Jahren
 
Ist halt immer eine Sache die jeder mit seinem eigenen Verbrauch und Preis ausrechnen muss. Glückwunsch zu 24 Cent. Hat fast keiner mehr.
Ergänzung ()

Wan900 schrieb:
Ich hätte die Karte wohl bei 599 Euro eingepreist, wäre ich Nvidia. Das wäre dann wirklich ein No-Brainer.
Haha, gut gebrüllt. Kommt im Mai:
https://www.3dcenter.org/news/news-des-18-april-2023

Damit verliert AMD bis die 7800XT und 7700er kommen, wohl noch mehr Marktanteil, da bei den Preis mehr und mehr Leute zugreifen, als abzuwarten.
 
  • Gefällt mir
Reaktionen: Wan900
Natürlich. Man muss es aber auch nicht größer machen als es ist nach der Logik hätten sich seinerzeit die Sparfüchse besser mit 6800xt statt 3080 eingedeckt. ;)
 
C0rteX schrieb:
Völlig krank. Jetzt sind es halt die 12 GB der 4070er die bereits heute vereinzelt nicht mehr ausreichen. Krass wie manche Menschen überhaupt nicht dazulernen.

Hoffen wir das es wie bei der Fake 4080 läuft und Jensen irgendwann checkt das die Nummer so nicht läuft.
12 Gb reichen heute wo nicht mehr? Bei was, 4K mit allen Details auf Anschlag mit AA und weiß der Geier?
Apropos Fake 4080, die Produktbezeichnung gibt immer noch der Hersteller selber vor, es gibt kein Standard der Vorschreibt was eine x090, x080, x070, x060 etc. zu sein hat. Das seit ihr die erwarten das dies so zu sein hat, klar wird das seitens der Hersteller auch marketingtechnische Gründe haben.
Fallout667 schrieb:
die wollen alle nur unser Geld und das war es dann auch schon. Das sind halt einfach zwei Konzerne die machen was sie können um mehr Geld zu verdienen. Nicht mehr und nicht weniger. Die geben sich beide nichts.
Eben, und damit sind sie nicht mal eine Ausnahme sondern die Regel, Willkommen im Kapitalismus.
C0rteX schrieb:
ch spiele also auch neben 1440p, auf 4k. Da in wqhd die 12 GB schon langsam eng werden, muss ich mehr kaufen.
Wer kauft sich denn bitte so eine Karte um in 4K zu spielen? Sry, aber man kennt seine Anforderungen, wenn man in 4K oder mehr mit allen Reglern auf Anschlag spielen will muss man auch entsprechend Power unterm oder auf dem Tisch haben. Die Hersteller wissen das und passen ihre Produkte entsprechend an bzw. bepreisen sie, Eine x070 ist halt unteres Highendsegment.
C0rteX schrieb:
Was nützt mir das DLSS 3 wenn der Speicher ausgeht, was in 4k definitiv jetzt schon mit 12 GB passiert.
Das war aber schon bei der 1080 Ti der Fall als 4K Gaming quasi Massentauglich wurde, nur mit ner Titan war man halbwegs im Grünen und das hat sich bis heute nicht geändert.
C0rteX schrieb:
mit meiner 1060 6 GB konnte ich mitten in Corona auf wqhd nicht einmal mehr richtig zocken
Was? ich hatte auch eine 1060 6Gb und spielte auf WQHD bei vielen Spielen waren immer noch hohe Settings möglich bei neueren nur noch mittlere aber das wusste ich auch vorher das dieser Tag kommen würde. Eine Karte wie eine 1060 war auch bei erscheinen nur Mittelklasse. Nicht mehr und nicht weniger.
C0rteX schrieb:
Beide Unternehmen sind nicht unsere Freunde.
Kein Unternehmen ist dein Freund.
C0rteX schrieb:
Wenn man sich den Fall bei den CPUs ansieht, wo wären wir dann heute ohne AMD? Würde uns Intel immernoch 4 Kerner mit 5 Prozent mehr Leistung für 450 Euro anbieten?
Glaubst du umgedreht wäre es anders? Wenn Intel ins Hintertreffen gerät, wie aktuell wirst du sehen das auch AMD immer mehr wie Intel seiner Zeit agieren wird. Es war nun mal schon immer so Konkurrenz erzeugt Wettbewerb, gibt es keine stagniert auch der Fortschritt. Nvidia kann dieses Verhalten an den Tag legen weil sie es können, AMD ist derzeit kaum eine Bedrohung und konnte sich die Jahre nur behaupten weil sie das über den Preis geregelt haben.
C0rteX schrieb:
VRAM Verbrauch lässt sich halt nicht fixen.
Klar, wenn man effizient Programmiert und Optimiert gibt es genug Einsparpotenzial. Ist halt ne Frage wie man es im Spiel löst, was hält man wann vor. Ist ja beim Betriebssystem genauso, der RAM Verbrauch bei Windows ist mit 16Gb höher als mit 8Gb, warum weil das OS mehr vorsorglich vorhalten tut, ob das am Ende zu einem Performanceproblem wird ist ein anderes Thema.
 
  • Gefällt mir
Reaktionen: Connecto, Fallout667 und Gortha
sikarr schrieb:
Klar, wenn man effizient Programmiert und Optimiert gibt es genug Einsparpotenzial.
Im Bereich Geometrie und Texturen kannst du optimieren was du willst, da sind einfach Grenzen gesetzt. Features wie RT fressen VRAM und dann sollen die Games auch noch immer größer und schöner werden. Irgendwo muss das Zeug hin.
 
BOBderBAGGER schrieb:
Natürlich. Man muss es aber auch nicht größer machen als es ist nach der Logik hätten sich seinerzeit die Sparfüchse besser mit 6800xt statt 3080 eingedeckt. ;)
nvidia hat aber ein anderes Standing, und AMD seit 6 Monaten quasi nur Mist am Hacken (Vapor Chamber/Treiber/HarwareBug) und eben kaum RT.
Wenn RT auf der Verpackung steht (oder beim Kunden im Kopf hängen bleibt), wird das mehr gekauft.
 
BOBderBAGGER schrieb:
Im Bereich Geometrie und Texturen kannst du optimieren was du willst, da sind einfach Grenzen gesetzt.
Ich kenne die Diskussion noch damals beim erscheinen der id Rage Engine und MegaTexture und das war 2011 als man von 12Gb VRam noch träumen konnte.
 
  • Gefällt mir
Reaktionen: Gortha
Man kann fast immer optmieren.

Wie hier vor ein paar Beiträgen jemand schrieb,
kann man selsbt das grottig programmierte Hogwarts bei 4k jetzt mit 10 GB Vram spielen und braucht keine 12 GB mehr....

Wenn natürlich 16 GB Vram mehr und mehr im Markt verfügbar werden, verlieren die Spielehersteller den Anreiz da mehr Arbeit reinzustecken.
 
  • Gefällt mir
Reaktionen: Connecto und sikarr
@SonyFriend
Kann ja auch jeder gerne machen, ich amüsiere mich nur über die Logik Verrenkungen die hier manch einer anstellt.

@sikarr
Das eine hat mit dem anderen nichts zu tun

Gortha schrieb:
kann man selsbt das grottig programmierte Hogwarts bei 4k jetzt mit 10 GB Vram spielen und braucht keine 12 GB mehr....
Jap die hochauflösenden Texturen sind stellenweise "wegoptimiert" worden. ;)
Mit D4 ist übrigens der nächste Titel unterwegs der mit high Quality assets die 10 und 12 GB Liga auch ohne RT ins straucheln Bring.

Nachdem jetzt immer mehr und mehr Entwickler die ps4 endlich zurücklassen werden wir das immer öffter sehen.
 
Zuletzt bearbeitet:
sikarr schrieb:
12 Gb reichen heute wo nicht mehr? Bei was, 4K mit allen Details auf Anschlag mit AA und weiß der Geier?
Apropos Fake 4080, die Produktbezeichnung gibt immer noch der Hersteller selber vor, es gibt kein Standard der Vorschreibt was eine x090, x080, x070, x060 etc. zu sein hat. Das seit ihr die erwarten das dies so zu sein hat, klar wird das seitens der Hersteller auch marketingtechnische Gründe haben.

Ich schreibe 12 GB werden bereits eng. Beispiele selbst in wqhd sind so ziemlich alle AAA Spiele der letzten Monate. Hardware unboxed hat das zu genüge unter die Lupe genommen. Du findest aber auch jede Menge andere Quellen dafür. Falls du nicht selbst fündig wirst, meld dich einfach noch Mal. Ich such dir 3 links raus.

sikarr schrieb:
Wer kauft sich denn bitte so eine Karte um in 4K zu spielen? Sry, aber man kennt seine Anforderungen, wenn man in 4K oder mehr mit allen Reglern auf Anschlag spielen will muss man auch entsprechend Power unterm oder auf dem Tisch haben. Die Hersteller wissen das und passen ihre Produkte entsprechend an bzw. bepreisen sie, Eine x070 ist halt unteres Highendsegment.

Ich spiele selbst mit meiner 6700 xt in ultra settings Forza Horizon 5 in 4k ohne FSR. 60-90 fps je nach Area. Ich spiele meist auch in optimized settings und mit upscaling. Ultra settings sind doch meist eher nicht lohnenswert. Wenn ich 15 Prozent höhere framerates bekomme und die Bildqualität dafür fast keinen Rückschritt macht, dann gerne. Das ich das kann, liegt daran weil ich vor 2 Jahren eben nicht die 3070 gekauft habe. Mit der hätte ich ja heutzutage selbst in full HD durch die 8 GB Probleme.

Ist eine Frage des Anspruchs. Bei mir ist bei 1000 Euro Ende. Wenn ein Hersteller keine Karte unter 1000 Euro bieten kann, die mir 3 Jahre mindestens high Texturen in 4 k bieten kann, dann kann ich diesen leider nicht kaufen.


sikarr schrieb:
Was? ich hatte auch eine 1060 6Gb und spielte auf WQHD bei vielen Spielen waren immer noch hohe Settings möglich bei neueren nur noch mittlere aber das wusste ich auch vorher das dieser Tag kommen würde. Eine Karte wie eine 1060 war auch bei erscheinen nur Mittelklasse. Nicht mehr und nicht weniger.

Ist jetzt eine Weile her, aber wenn ich mich Recht erinnere, hatte ich mit der 1060 23 fps in wqhd auf Low settings in Shadow of the Tomb Raider. Können aber auch mittlere Details gewesen sein. Auf jeden Fall sah es nicht mehr gut aus und die fps waren ungenügend.

sikarr schrieb:
Kein Unternehmen ist dein Freund.

Mein reden, deshalb verstehe ich das Fanboyverhalten einfach überhaupt nicht. Davon hat echt niemand etwas.

sikarr schrieb:
Glaubst du umgedreht wäre es anders? Wenn Intel ins Hintertreffen gerät, wie aktuell wirst du sehen das auch AMD immer mehr wie Intel seiner Zeit agieren wird. Es war nun mal schon immer so Konkurrenz erzeugt Wettbewerb, gibt es keine stagniert auch der Fortschritt. Nvidia kann dieses Verhalten an den Tag legen weil sie es können, AMD ist derzeit kaum eine Bedrohung und konnte sich die Jahre nur behaupten weil sie das über den Preis geregelt haben.

Hab ich nie behauptet. Ich habe in meinem anderen Post ausführlich beschrieben das ich am liebsten alle 3 Unternehmen im Konkurrenzkampf hätte. Schau einfach noch Mal nach.

Keine Bedrohung? AMD hat diese Woche 60 Prozent Marktanteil bei Mindfactory trotz 4070 Release.

sikarr schrieb:
Klar, wenn man effizient Programmiert und Optimiert gibt es genug Einsparpotenzial. Ist halt ne Frage wie man es im Spiel löst, was hält man wann vor. Ist ja beim Betriebssystem genauso, der RAM Verbrauch bei Windows ist mit 16Gb höher als mit 8Gb, warum weil das OS mehr vorsorglich vorhalten tut, ob das am Ende zu einem Performanceproblem wird ist ein anderes Thema.

Texturen sind da leider eine relativ feste Größe. Man kann schlechtere Texturen nehmen und Texturen nicht laden. Das der Unwillen für ausführliche Optimierungen vorhandenen ist, dafür gibt es genug Beispiele. Da können wir uns auf den Kopf stellen. Also muss man das mit bei der Kaufentscheidung berücksichtigen.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben