Drewkev
Geizkragen
- Registriert
- Okt. 2016
- Beiträge
- 39.601
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Das war bei der letzten gen schon so. Die Leute haben ihre teilweise 2 Jahre alten gpus, die schlechter waren als der Nachfolger, für 89 Prozent oder mehr des Preises des Nachfolgers verkauft und die Leute rissen es ihnen aus den Händen.Destyran schrieb:wer gibt denn jetzt noch 525 für ne gebrauchte 3070 ti aus? oder ist das schon etwas her?
Drewkev schrieb:Genauso wenig dass jedes Modell der RTX 4070 ihre ~200W braucht, da wird es auch welche geben die schon ab Werk mit weniger auskommen.
Gerithos schrieb:Auch jetzt finde ich es bemerkenswert, wie die Leute problemlos ihre 2020er 3080 für 500 Euro verkauft bekommen und die Käufer sich voll abfeiern, wobei man für nur 100 Euro mehr ne GPU bekommt die 2 GB mehr RAM hat, bedeutend weniger Strom verbraucht und genauso viel Leistung bringt bzw fast. Vom featureset ganz zu schweigen.
Drewkev schrieb:Na meine indem ich das Powerlimit um 22W reduziert habe.
...
Aber mit UV daherzukommen obwohl ich das nie erwähnt hatte ist einfach kein Argument,
Drewkev schrieb:Wenn du das anders siehst dann ist das natürlich okay. Aber die Mehrheit, so wie auch ich, sieht das anders. Und das völlig berechtigt.
Quelle das Konsolen nur 12gb Ram haben, wäre mir neu, ja die CPU und GPU müssen sich das teilen aber es gibt keine technisches Gesetz das die CPU mindestens 4,5GB Ram davon braucht.Pady1990 schrieb:Auch wenn man es nicht wahr haben will, bestimmen halt leider Gottes die Konsolen den Spielemarkt und daher ist der Sweetspot beim Grafikspeicher aktuell 12GB und bis es neuen Xboxen und ne PS6 gibt
Auf der PS5 passiert sowas soweit ich das sehe nicht. Man muss also Raytracing ausschalten und das ist nicht Nativ 4k es könnte also auch bei kleineren Auflösungen schon zum Problem werden, da höhere Auflösungen weniger VRAM fressen als man glaubt.So hat die GeForce RTX 4070 Ti zum Beispiel in Ultra HD und DLSS Quality bei ansonsten voller Grafikqualität zwar keine Performance-Probleme, aber bei manchen Objekten werden die Texturen nicht geladen, andere verschwinden kurzfristig völlig, da die Engine vermutlich versucht, die Situation irgendwie noch zu retten. Ohne Raytracing klappt es auch mit 12 GB.
Ja wird man total schlechtes Gaming Erlebnis mit 12gb vram haben? Nein, die Farge ist ob das genug ist fuer 600 Euro. Will man fuer 600 Euro nicht einfach 4k mit zumindest leichtem Raytracing ohne Grafikprobleme haben?Mit 12 GB ist die Situation etwas entspannter, aber problemlos läuft Deathloop damit immer noch nicht. Der FPS-Verlust ist hier allerdings geringer als mit einer 10-GB-Grafikkarte und der Leistungsverlust setzt später als mit einem 10-GB-Beschleuniger ein. In WQHD hat es keine erkennbaren Probleme mit 12 GB gegeben – stundenlang am Stück gespielt hat die Redaktion jedoch nicht.
Hoer bitte auf diese Fake News zu verbreiten, in dem Video sagt die Redaktion selbst das die Faustregel ist Intel 8gb entsprechen 8,5gb Radeon und 9gb Nvidia, das heisst die Nvidia Karten sind in der Regel 10-15% effizienter, nicht wie bei dem einen Game das ihr da raus lesst Total War das voellig irrelevant ist, und dazu noch ein DX11 Titel ist, wo AMD nicht gut optimierte Treiber hat. Alle Spiele die jetzt released werden mal AA Titel sind entweder DX12 oder Vulkan und daher ist der Benchmark dieses DX11 Titels irrelevant, selbst das andere Game Spiderman ist noch überdurchschnittlich weit weg aber selbst dort ist der Abstand so das wenn bei Nvidia 12gb nimmer reichen bei AMD 16gb noch reichen.Wan900 schrieb:Sollten die 12Gb bei Nvidia nicht mehr reichen, wirds bei AMD auch mit 16GB eng.
YouTubeAn dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Drewkev schrieb:Ja, aber nochmal, ich bezweifle dass man die RTX 4070 auf 170W oder gar 150W gedrückt bekommt ohne Leistung zu verlieren.
Drewkev schrieb:Zumindest nicht pauschal.
In diesem Moment ja aber dir ist schon bekannt das FSR 3.0 vor der Tuer steht und das auch kann, und wahrscheinlich nicht auf die 7xxx reihe begrenzt, also das Argument zieht nur noch ein paar Wochen.jak80 schrieb:Ohne DLSS 3/Frame Generation und mit 100 Watt mehr Stromverbrauch.
Und damit hat es sich doch erledigt. Ich kann heute auch aufstehen und das Powerlimit bei einer 4070 reduzieren, sicher auch so, dass man nur ganz wenig Leistung verliert...Drewkev schrieb:Klar, kann man bei der RTX 4070 auch machen.
Was hat denn das mit Sachlichkeit zu tun, wenn man andere als Fanboys bezeichnet, nur weil sie das anders sehen? Mit deiner Sachlichkeit scheint es ja nicht weit her zu sein.Drewkev schrieb:Ich verstehe auch nicht wieso immer direkt mit sowas argumentiert wird, statt einfach auf sachlicher Ebene zu diskutieren.
Stimmt. UV ist schon ein bisschen etwas anderes als das Powerlimit zu reduzieren. Und dennoch erwähntest du es nirgends. Das Powerlimit kann ich auf jeder anderen Karte auch reduzieren.Drewkev schrieb:Auch ich mache Fehler und ich habe überhaupt kein Problem damit diese einzugestehen, es sei denn mir wird etwas vorgeworfen was so einfach nicht korrekt ist.
Doch, die 6900XT verbraucht ohne Eingriffe genau diese 100 Watt mehr, es sei denn die GPU wird nicht entsprechend ausgelastet, was aber dann auch den Verbrauch der 4070 reduziert.Drewkev schrieb:dass die RX 6900 XT pauschal 100W mehr verbraucht stimmt so auch nicht und zu DLSS3/Frame Generation habe ich mehr als genug gesagt.
Nächstes Jahr gibt es dann ein Video von Hardware Unboxed das die 12GB der 4070/ti nicht reichen.Eorzorian schrieb:Nvidia hat mit dir anscheinend alles richtig gemacht. Jede Generation eine Grafikkarte kaufen zu müssen, weil die alte "beschnitten" auf den Markt geschmissen wird, rechfertigst du hier sogar.
Wirf mal einen Blick darauf und sag mal wie die Käufer sich fühlen sollen:
YouTubeAn dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Was heißt Ahnungslos. Ist ja nicht so als wenn da nicht 30 weitere 3070 im Angebot waren. Da ist der Typ selber schuld.Easy1991 schrieb:Ja, schön wenn man ahnungslose abzockt, sei stolz auf dich.
Apex mit RT wäre schon sehr nett. Bis die Beleuchtung in eSport-Titeln Einzug hält, braucht es aber wohl noch ein paar Jährchen: Kommen wird RT aber bestimmt auch dort. Spiele überdies sehr viele Retro-Shooter, Indiespiele wie Stardew Valley, populäre Coop-Titel wie Valheim, Farming Simulator oder 7 Days to die und einige Evergreens. Oben drauf eine riesige Ladung Mods für Fallout und Doom. Meistens komme ich erst zu AAA-Titeln, wenn diese schon ein Jahr oder mehr auf dem Buckel haben. Das Dilemma des Lebens vieler, die mit dem PC groß geworden sind: Genug Geld für alles, weniger Zeit für den PC und wenn man Steam startet, wartet der Freundeskreis mit MP-Titeln oder man will ein paar Stunden von nichts wissen und in ein behagliches Nostalgie-Retro-Gore-Loch fallen.Connecto schrieb:Welche Titel sind das? Wenn die älter sind und nicht so viel Leistung brauchen, braucht man auch kein RT, DLSS oder Reflex.
Weil selbst die ASUS RTX 4070 Dual laut TechPowerUp ab Werk ein Powerlimit von ~220W hat und selbst wenn wir von den 200W ausgehen das bei 150W ganze 25% weniger Stromverbrauch ohne Leistungsverlust wären, das kann ich mir einfach nicht vorstellen.DocWindows schrieb:Warum nicht?
Du vergleichst glaub das falsche, der Massstab waere die Renderaufloesung also wenn du DLSS benutzt performance nimmt er ja glaub 1920x1080 als Renderaufloesung und rechnet das hoch, das braucht aber mehr VRAM als 1920x1080 Nativ... du kannst nicht mit Nativ hoher Auflösung vergleichen, die verbraucht eben noch mehr VRAM. So versteh ich das zumindest mag mich irren.sTOrM41 schrieb:Das DLSS und Frame Generation zusätzlichen VRAM benötigen würden lese ich hier alle paar Tage
200W statt 300W ist also doppelt, interessant.Gortha schrieb:10 % mehr Raster-Performance... bei doppeltem Stromverbrauch. Top
Stimmt nicht, die GPU hat wie auf der ASUS Website beschrieben auch eine TGP von 300 Watt.Drewkev schrieb:Das gilt aber nicht für (alle) Custommodelle .. die ASUS TUF bspw. hat ab Werk (!) ein Powerlimit von 272W, da wirst du nie eine 3 vorne sehen.
Ja genauso wie eben FSR 3.0 bei AMD, will jemand wirklich die Karte kaufen weil er ein paar Wochen früher (von Heute gerechnet) Frame Generation hat?Connecto schrieb:Daran klammert sich niemand, es gehört aber nun mal zur Nvidia Karte dazu.