Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsZwei Wochen nach Marktstart: Nvidias GeForce RTX 4070 fällt unter die 600-Euro-Marke
Ihr könnt nicht immer drauf hoffen das da so viel extra Zeit investiert wird damit das Spiel aufm PC effizienter läuft als auf der Konsole, das ist ein Verkaufsschlager, da lohnt sich sowas eher, wie viele Games sind ewig schlecht optimiert?
Btw der Patch vom 8. März? Mag sicher ein bisschen ne negative Auswahl sein da sich sicher mehr Leute mit Problemen zu Wort melden wie die wo es sehr gut laeuft, aber trotzdem:
ca. 30% sagen es läuft jetzt besser 70% sagen schlechter (wie gesagt seh das nicht als repräsentativ an aber das das Problem für alle gelöst ist auch nicht), aber was einheitlich zu sein scheint, ist das die Texturqualitaet reduziert wurde.
Man hat also niedrigere Auflösungen bei den Texturen verwendet:
Before patch i had no problems with game running. Average settings and 55-60fps, nice. But after the last patch texture quality got worse, much worse. Previously i haven't seen textures changing their quality from ablosute disasterous to normal during CIRCA 10 SECONDS right in front of my eyes, but now i do.
It runs pretty much at an unwavering framerate (G-Sync 144fps) at 4K, on a 5800X3D + 4080. It looks like the game is slowly making it out of beta with regards to the PC version.
Gut ich mein ihr habt wenn das Szenario eintritt was ich sage ja nicht 600 Euro verboten, die Karte kann man ja immer noch weiter verkaufen, also real wettet ihr vielleicht 50-100 Euro maximal an schlechterem Wiederverkaufswert, also die Welt geht nicht unter, das ist schon klar, groesser ist das Problem das es bei UHD keine Wette ist sondern wir schon wissen das in naechsten 12 Monaten regelmäßig mehre AAA Titel pro Jahr raus kommen
Man kann halt nicht alles bis in letzte Detail vorhersehen, jede Kaufentscheidung birgt ein gewisses Risiko und bringt Nachteile mit sich.
Ich habe mich nach langem hin und her für eine 4070ti entschieden für WQHD, für mich war da ein entscheidender Faktor, dass ich 5 Jahre Garantie bei Zotac bekomme und die haben halt keine 6800XT im Angebot. Energieeffizienz und Abwärme ist auch sehr relevant für mich.
Gegenüber einer gebrauchten Karte bei ebay ohne Garantieleistung bzw. nur noch kurzer Laufzeit sehe ich da alleine 100-200€ Wertdifferenz. (gebrauchte Karte aus unbekannter Hand vs. Neuware mit 5 Jahren Garantie von Amazon).
Jetzt "lebe" ich mit der Sicherheit, dass mir in den nächsten 5 Jahren ein Hardwareschaden ersetzt wird, aber mit dem Risiko, dass 12GB unter WQHD zu Einschränkungen kommen wird.
Hinzu kommen Risiken, die ich ggf. noch gar nicht auf dem Schirm habe.
Bewerten kann man das immer erst rückblickend für sich persönlich. Über die Zeit relativiert sich auch einiges, ich kaufe seit Anfang der 90er Grafikkarten, mal waren die besser, mal schlechter, ATI/AMD und Nvidia.
Letztendlich muss man feststellen, wer es nicht wegstecken bzw. riskieren kann, dass so eine Karte im jeweiligen Preisbereich von heute auf morgen kaputt geht oder technisch untauglich wird, der ist ggf. im falschen Preisbereich oder gar Hobby unterwegs.
Vergleiche das mal im Extrem mit der Modellfliegerei, wer da nicht akzeptiert, dass sein 1-10k€ & >1000 Arbeitsstunden Flugmodell nur eine Sekunde bzw. falsche Handbewegung vom Totalschaden entfernt ist, der sollte sich auch ein anderes Hobby suchen.
Niemand (außer die Unwissenden) hat die 3080 einen Speicherkrüppel genannt.
Der Begriff kommt eher daher, dass das Speicherinterface einer 4070/4070ti 192 Bit breit ist.
Das der 3080/3080ti kommt hingegen auf 320/384 Bit
3080 und 4070 sind bis WQHD ziemlich gleichauf, in 4k übernimmt die 3080 ein wenig die Führung.
Aber die Konsolen die vor 2,5 Jahren raus kamen und 450-500 Euro die gesamte Hardware nicht nur die Grafikkarte die packt es? Finde ich schon sehr sehr reduzierte Erwartungen. Ist euch euer Geld so wenig wert? Oder hat euch die Miningzeit so verdreht das ihr glaubt das 600 Euro fuer ne Mittelklasse Karte nen fairer Preis ist?
sTOrM41 schrieb:
Bei der 4070ti sehe ich die 12gb Vram schon kritischer.
Wenigstens das siehst ein, die Frage ist doch wieso wenn die RAM Preise im Keller sind, baut Nvidia solche geplante Obsoleszenz ein? Muss man wirklich die maximal 20 Euro am Speicher sparen? Frueher wurden schrott Karten mit mehr speicher aus gestattet, ne 3060 mit 12gb, das entspraeche heute 16gb und das bei ner 60er Karte. Ich hab es schon mal aufgezeichnet auch die 1070 die ungefaehr zum selben Abstand zur last-gen Konsole raus kam hatte 8GB Vram die Konsolen damals 8gb RAM nun hat man aber nur 12 und die Konsolen 16, wo bleibt da PC Masterrace?
Gerüchteweise soll es doch einen Bug geben, der eine höhere Performance verhindert. Natürlich sind die Karten immer noch schwindelerregend teuer, aber dann wäre das Preis/Leistungsverhältnis doch ein anderes gewesen. Das hat Moores Law is Dead kürzlich noch einmal umrissen.
Man kann nur hoffen, dass man nicht erst auf Navi 40 warten muss. Vielleicht bekommt AMD das bereits bei der 7800XT und kleineren Karten in den Griff.
Beg1 schrieb:
Das langfristige Problem ist irgendwann aber ein kaputter PC-Markt im AAA-Bereich, hatten wir vor ~17 Jahren schon (Xbox 360/PS3-Ära).
Das stimmt. Nur hatten wir so eine Situation mit so einem Ungleichgewicht der Marktanteile, einem Ungleichgewicht der technischen Entwicklung und im Prinzip nur noch so wenig Marktteilnehmern (soll man Intel dazuzählen oder nicht ) noch nie.
Auch der Hinweis auf TSMC stimmt. Wir haben hier gleich zwei marktbeherrschende Unternehmen und damit eine doppelte Preissteigerung aufgrund von Profit-Expansion.
Was ja nichts mit Zukunftssicherheit zu tun hätte, weswegen man jetzt die 12GB Karten verteufeln müsste.
Außerdem kannst man die 6800xt und 3070 auch jeweils noch zusätzliche 3-4 Jahre weiternutzen wenn man die Regler bedient. Das ist eine sehr individuelle Entscheidung wann eine Karte nicht mehr reicht.
Ja bei der 3070 muss man jetzt die Regler bedienen bei der 6800 noch nicht. Ja nur dank der 16 statt 8GB VRAM braucht man das bei der 6800 später und weniger als jetzt schon bei der 3070.
Mir ist das eigentlich egal da ich alle 2-3 Jahre mir eine neue Karte kaufe, wenn ich merke das es ein Spiel gibt was es benötigt. Aber wenn meine Karte wegen dem Mangel an VRAM abkackt während die Konkurrenz weiter 1a läuft. Würde mir das richtig sauer aufstoßen.
Ich habe keine aktuelle Konsole und lese die Tests diesbezüglich nicht, schaffen die Konsolen 4k mit vergleichbarer/akzeptabler Framerate, RT und ohne Tricks wie interner Skalierung oder Reduktion von Texturqualität, Renderdistanz, Anzahl und Detaillierungsgrad von Meshes etc.?
es ging hier um die ventus 3x 4090 nicht 4070, aber ja natürlich ist sie kühler als die 4070 FE. schließlich ist sie auch deutlich größer als die 4070 FE ändert dennoch nichts daran das sie die schlechtesten chips verbaut hat da msi, wie auch alle anderen die besten chips die sie von nviida bekommen in ihre rog strix, suprim x etc. gpus einbaut
Ergänzung ()
jak80 schrieb:
Jaja, alle haben keine Ahnung und insideinfinity hat den Durchblick Die meisten von den im Index vorhandenen Spielen laufen natürlich im GPU-Limit, auch in UWQHD.
natürlich tun sie das, GRADE in UWQHD, was weniger Leistung benötigt als natives 4k. Zumindest auf der 4090er laufen sie im CPU limit, das ist belegter FAKT in allen Benchmarks der Welt da kannst du noch soviel unsinn drumherum reden, es wird nichts ändern.
jak80 schrieb:
Deine Art zu schreiben, solltest Du überdenken, mit Leuten wie Dir ist es einfach nur anstrengend.
Meine Art zu schreiben hast du dir verdient, schließlich hast du hier bisher zu 100% bewiesen das DU keine Ahnung von dem hast was du schreibst. Alles was du hier angeführt hast ist der PC Games Hardware "Index" in dem ein relativer mittelwert aus mehreren Benchmarks gebildet wird, ungeachtet dessen welche Benchmarks davon bei der 4090er CPU Limitiert sind und welche nicht. Es ist FAKT das die 4090er in 4K in vielen Spielen CPU limitiert ist solange man einen 5800x3d zum benchmarken nutzt oder drunter.
Ich hingegen habe belegt das die 4090er 50% schneller ist als die 4080er solange kein CPU limit vorherrscht, was natürlich jeden Benchmark vollkommen nutzlos macht solange nicht die Leistung der GPU gemessen wird sondern die Leistung der CPU die GPU limitiert. Aber wie schon gesagt, du bist anscheinend nicht fähig diese Tatsachen überhaupt aufzunehmen und zu verarbeiten daher kannst du mich gerne auf die Ignore setzen, jeder einzelne der hier die Kommentare durchließt und tatsächlich ein quäntchen ahnung hat wird wissen das alles von mir geschriebene Fakten sind während du vollkommenen Stuß von dir gibst und vollkommen an der realität vorbeischreibst
Auch auf diese, da diese zu dem Groß der SpielerBasis gehören, die 8 GB VRam ihr eigenen nennen, wird es für diese Eigentümer einen passablen Modus in neuen Spielen geben, der ihnen gute Leistung bei ansprechender Grafik ermöglicht.
Natürlich geht den 8 GB VRam Karten früher das Licht aus. Gerade denen von AMD.
Eben, ich verstehe die ständigen Querverweise auf eine Konsole hier im Forum und Sub Grafikkarten ohnehin nicht.
Konsolen sind günstiger, haben Controllersteuerung, einige Spielegenres sind gar nicht vertreten, andere Software läuft auch nicht, Modding ist begrenzt oder gar nicht vorhanden, Spiele sind meist teurer, Onlinegaming kostet, dafür sind sie pflegeleichter und fürs Wohnzimmergaming optimiert.
Diese grundlegenden Parameter sind doch bekannt, wer damit gut zurecht kommt, der hat sich doch hoffentlich längst eine gekauft. Oder gibt es wirklich Leute, die überlegen eine 600-1700€ Grafikarte zu kaufen, obwohl sie mit einer Konsole ebenso oder ggf. sogar glücklicher wären?
Mir gehts ja auch nicht darum was ihr entscheidet, der Grafikkartenmarkt war lange sehr schwer und ist es in gewisser Weise immer noch, da muss man irgendwelche Kompromisse eingehen. Man sollte aber halt auch die negativen Punkte nicht versuchen weg zu reden, dagegen rede ich an.
Hey ich hab auch Bulldozer CPUs gekauft, wir machen alle nicht immer die besten Kaufentscheidungen
calippo schrieb:
Ich habe mich nach langem hin und her für eine 4070ti entschieden für WQHD, für mich war da ein entscheidender Faktor, dass ich 5 Jahre Garantie bei Zotac bekomme und die haben halt keine 6800XT im Angebot. Energieeffizienz und Abwärme ist auch sehr relevant für mich.
Ja ist ja auch nett der Stromverbrauch, wobei die ti ja auch nicht so sparsam ist nur halt wahrscheinlich Effizienter, aber der Abstand absolut zur 6800xt sollte nicht so groß sein.
calippo schrieb:
Gegenüber einer gebrauchten Karte bei ebay ohne Garantieleistung bzw. nur noch kurzer Laufzeit sehe ich da alleine 100-200€ Wertdifferenz. (gebrauchte Karte aus unbekannter Hand vs. Neuware mit 5 Jahren Garantie von Amazon).
Ja aber die ti wirst nicht fuer 530-630 (bei 430 fuer ne 6800 xt) gekriegt haben, aber klar die Ti ist auch staerker wie die normale 6800 xt und daher auch als die 6800 xt selbst in reinem Raster.
calippo schrieb:
Jetzt "lebe" ich mit der Sicherheit, dass mir in den nächsten 5 Jahren ein Hardwareschaden ersetzt wird, aber mit dem Risiko, dass 12GB unter WQHD zu Einschränkungen kommen wird.
Hab die 10 Jahre Garantie die ich damals bei nem TV fuer ca. 1000 Euro vielleicht 100 Euro fuer di Garantieverlaengerung oder so bereut. Ein TV geht selten kaputt und spaetestens nach 6 Jahren oder so ist der doch eh wenig wert, da waere im worst case ein Totalschaden verkraftbar, das Risiko ist ja klein.
calippo schrieb:
Letztendlich muss man feststellen, wer es nicht wegstecken bzw. riskieren kann, dass so eine Karte im jeweiligen Preisbereich von heute auf morgen kaputt geht oder technisch untauglich wird, der ist ggf. im falschen Preisbereich oder gar Hobby unterwegs.
Das würde aber gegen Garantie sprechen Ne Spaß beiseite, ja ich denke halt das es Leute gibt die vielleicht vor 5 Jahren 200 Euro gezahlt hätten für ne Karte jetzt aber 400 vielleicht 450 und vielleicht mit Schmerzverzerrtem Gesicht 500 die so ne Karte gewollt hätten. Oder Leute die halt ne 1060 (6gb) gekauft haben und sehen das 8gb es nimmer tut und daher das als passende Karte an sehen aber der Aufpreis, soweit ich das sehe war der Releasepreis der 6gb RTX 1060 nur 300 Dollar also vielleicht maximal 350 Euro.
Und so mehr ich drüber nachdenke ist das der echte Vorgänger:
RTX 1080 -> RTX 4090
RTX 1070 -> RTX 4080
RTX 1060 (6gb) -> RTX 4070
Die Ti Modelle lass ich mal aussen vor, und wenn man das so betrachtet sind die Aufpreise deftig.
calippo schrieb:
Vergleiche das mal im Extrem mit der Modellfliegerei, wer da nicht akzeptiert, dass sein 1-10k€ & >1000 Arbeitsstunden Flugmodell nur eine Sekunde bzw. falsche Handbewegung vom Totalschaden entfernt ist, der sollte sich auch ein anderes Hobby suchen.
Ja deshalb kauf ich mir keine Karten in dem Preisbereich wenn ich allerdings nonstop jeden Tag süchtig sofort an PC rennen würde und wichtige Spiele nicht gut laufen würden, würde ich da vielleicht in Versuchung kommen bei mir ists eher so das ich mich eher zu motivieren muss überhaupt noch zu zocken.
Hab daher auch mal ne weile die schon billige 100 Euro rx480 bei Ebay dann wieder verkauft als die Preise so hoch gingen für 350 Euro und ne Alte Radeon 6850 wieder eingebaut, jetzt hab ich wegen Problemen Mit VR mir ne RX5600 gekauft mit 6gb vram, aber ja das ist ne last-last-gen Mittelklasse, da mach ich mir keine Illusionen bei neueren AAA Games auch bisschen Speichergrueppel aber waren glaub so 270 Euro soweit ich mich erinnere und das ist schon weile her da waren die Preise auch noch leicht angespannter.
Ergänzung ()
Gortha schrieb:
KA von was du da ausgehst, aber Steam-Comments haben keine wirkliche Aussagekraft. Wer weiß was diese Dödel an ihren PCs so anstellen.
Aso 1 Bericht eines Computerbase Doedels oder Youtube Doedels ist mehr wert als mehrere bei Steam, bei Steam rennen ja auch nur volldeppen rum und ueberall anders nur super Leute.
Gortha schrieb:
Was packen die denn? Die haben um 30 oder 60FPS zu erreichen extrem reduzierte Grafikdetails, wogegen die PC Versionen fast frei einstellbar sind.
Ja das nennt sich Frame Limitierung, ja fast durchgehend 30 FPS stabil das zusammen mit Freesync reicht eben das es nicht ruckelt. Lieber 30fps bei nem Singleplayer game und Tadellose Texturen und RT und 4k als Geruckel.
Gortha schrieb:
Auch auf diese, da diese zu dem Groß der SpielerBasis gehören, die 8 GB VRam ihr eigenen nennen, wird es für diese Eigentümer einen passablen Modus in neuen Spielen geben, der ihnen gute Leistung bei ansprechender Grafik ermöglicht.
Ja es wird einen reduzierten Modus geben, nennt man dann meistens "high". Oder das Spiel regelt halt selbststaendig auf defakto high runter ohne das der Spieler das macht. Wieso das aber was gutes sein soll versteh ich nicht, wie kann man so ein Sickofan sein solche geplante Obsoleszenz fuer nen Wucherpreis und hoher Marge zu verteidigen? Und lieber 1000 Entwicklerfirmen die Schuld zu schieben weil die Spiele nicht in Assambler absolut auf die Nvidia Karten hin optimiert zu haben. NV darf nicht schuld sein, die ganze Welt hat schuld... weil die nicht nach der Pfeife von Nvidia tanzen und unzaehlige extra Entwicklerstunden verschwenden weil Nvidia die Boni noch nicht hoch genug waren.
Gortha schrieb:
Natürlich geht den 8 GB VRam Karten früher das Licht aus. Gerade denen von AMD.
Irrelevant da die 8gb von AMD meist deutlich billiger sind und oder denen schon die Puste bei RT oder auch reiner Raster aus geht, die sind eben besser abgestimmt. Gleich teure Karten wie entsprechende Nvidia Karten haben fast immer mehr VRAM wie der Vergleichskandidat.
Ja, ist ja auch ok. Ich denke, dass allen bewusst ist/sein sollte, dass der Markt heute nicht mehr der von vor einigen Jahren ist.
Ich sehe es vielleicht entspannter, weil ich so lange dabei bin und noch ganz andere Preise für Hardware bezahlt habe, die innerhalb weniger Jahre komplett untauglich war, z.B. um aktuelle Spiele zu spielen (die starteten erst gar nicht), CDs zu brennen etc.
blackiwid schrieb:
Ja ist ja auch nett der Stromverbrauch, wobei die ti ja auch nicht so sparsam ist nur halt wahrscheinlich Effizienter, aber der Abstand absolut zur 6800xt sollte nicht so groß sein.
Rein monetär wird sich das nicht so bemerkbar machen, bei mir ist aufgrund des ungünstigen Aufstellortes die Abwärme sehr relevant und mein Gehäuse ist auch schon älter und nicht so optimal durchlüftet. Da nehme ich jedes Watt weniger gerne mit. 50 Watt mehr oder weniger sind da schon spürbar.
blackiwid schrieb:
Hab die 10 Jahre Garantie die ich damals bei nem TV fuer ca. 1000 Euro vielleicht 100 Euro fuer di Garantieverlaengerung oder so bereut.
Grundsätzlich schließe ich solche Extragarantien auch nicht ab und 10 Jahre beim TV sind auch nicht nötig.
Meine vorherige 1080 hatte allerdings einen Lüfterschaden nach 3 Jahren und den habe ich reibungslos lösen können. Auch wenn das kein essentieller Schaden ist, will man so was sauber lösen und auch bei Aliexpress kosten passenden Lüfter einiges. Verkauft habe ich die Karte kürzlich nach 5 Jahren Nutzung für 160€, das sind immerhin noch 30% vom EK.
blackiwid schrieb:
Und so mehr ich drüber nachdenke ist das der echte Vorgänger:
Ja, aber irgendwann muss man sich damit abfinden, dass diese Zeit der relativ günstigen Hardware, die guten Leistungssprünge der Generationen und die grafisch bereits sehr ordentlichen aussehenden und gut skalierenden Spiele wohl vorbei ist.
Man könnte das mal in einem Zeitstrahl darstellen, gefühlt waren das 10-15 Jahre Paradies und davor und danach sieht es halt deutlich schlechter aus. Wird nicht der einzige Bereich bleiben, bei dem wir merken, dass es bessere Zeiten gab.
blackiwid schrieb:
eher so das ich mich eher zu motivieren muss überhaupt noch zu zocken.
Naja, dann darfst Du Dich halt nicht wundern, warum andere Entscheidungen treffen, die Du nicht so richtig nachvollziehen kannst.
Ich spiele ja auch nicht mehr viel, aber wenn ich mal was starte und das jetzt wieder butterweich läuft, dann bestätigt das meine Kaufentscheidung und wenn ich in Zukunft durch die 12GB Probleme bekomme, dann finde ich eine Lösung dafür, da mache ich mir doch jetzt keine Gedanken.
Ich wundere mich hingegen über Leute, die Geld ins Auto stecken. Das habe ich bewusst abgeschafft und schüttle regelmäßig den Kopf, wenn ich an der Waschstraße vorbei komme, wo Leute mehr für die Reinigung ihres Autos zahlen, als ich für meine bereits absurd teure Grafikkarte in der gleichen Zeitspanne.
Naja die Konsolen packen es auch nicht wirklich, da gehen dann bei 4K die fps oft runter auf 30. 4k 120Hz klappt allerhöchstens bei E-Sport Titeln. 4k bei 60fps mit vollen Details schafft die dann auch quasi nie. Ist halt immer ein Kompromiss. Selber die Grafik anpassen geht auch nicht. Und dann ist die Software für genau 1 Hardwarekonfiguration optimiert, daher klappt das überhaupt. Jede PS5 Konsole ist halt gleich, da kann man dann auch entsprechend optimieren. Wenn du das auch für PCs hinbekommst dann herzlichen Glückwunsch.
Ergänzung ()
ThePlayer schrieb:
Aber wenn meine Karte wegen dem Mangel an VRAM abkackt während die Konkurrenz weiter 1a läuft. Würde mir das richtig sauer aufstoßen.
Wieso, das wäre doch dann deine eigene Schuld. Du hättest dich dann ja auch beim Kauf bewusst für das Modell mit 8GB entschieden. Und das 8GB nicht die Welt sind wenn die Auflösung steigt und die Spiele neuer werden ist jetzt auch schon lange bekannt. Wenn du also möglichst lange mit der Karte durchhalten willst dann hättest du dir doch auch direkt die mit 16GB gekauft.
Ergänzung ()
calippo schrieb:
Ischaffen die Konsolen 4k mit vergleichbarer/akzeptabler Framerate, RT und ohne Tricks wie interner Skalierung oder Reduktion von Texturqualität, Renderdistanz, Anzahl und Detaillierungsgrad von Meshes etc.?
Ich sehe es vielleicht entspannter, weil ich so lange dabei bin und noch ganz andere Preise für Hardware bezahlt habe, die innerhalb weniger Jahre komplett untauglich war, z.B. um aktuelle Spiele zu spielen (die starteten erst gar nicht), CDs zu brennen etc.
Naja ich sehe halt das dieser Bereich eben der Bereich sein sollte wo durch Fortschritt man immer mehr fuer weniger oder gleich viel Geld bekommen sollte, wenn das auch noch faellt, ja dann haben wir keinerlei fortschritt mehr, es ist schon schlimm genug das die Karten nativ 4k praktisch nimmer packen und man mit Upscaling arbeiten muss, aber wenn man schon das in kauf nehmen muss sollte wenigstens die Hardware nicht trotzdem x-fach teurer werden. Zumal grad Speicher / CPUs / SSDs alles massiv billiger wird, und dann glaubt die Grafikkartenbranche sie koennten ihre ueberhoehten Preise aus den Miningzeiten zumindest teilweise aufrecht erhalten nein danke. Sicher der Festplattenmarkt ist auch sowas aber da wird eben für Home user sehr schnell SSDs die ablösen gibt heute schon fuer 80 Euro 2TB wenn da noch die Stromersparnisse auf ein paar Jahre hoch rechnest ist jetzt schon ca. Gleichstand. Und die besagte SSD verlor in 1 Jahr 67% des Preises. also kostet noch 33% so viel wie vor 1 Jahr.
calippo schrieb:
Rein monetär wird sich das nicht so bemerkbar machen, bei mir ist aufgrund des ungünstigen Aufstellortes die Abwärme sehr relevant und mein Gehäuse ist auch schon älter und nicht so optimal durchlüftet. Da nehme ich jedes Watt weniger gerne mit. 50 Watt mehr oder weniger sind da schon spürbar.
Ich glaub ich hab noch nicht über die 4070ti genug gehatet Aber geschenkt ich denk da spricht man einfach ein anderes Publikum an das nicht jeden Euro umdreht. Und wer das uninformiert im Zweifel und überrascht wird, hat selber schuld. Du hast das mit der Wärmeentwicklung ja gut begründet, würde halt vielleicht als Tipp sagen im Sommer das Power Target um 50 Watt senken dann sollte es immer noch reichen, aber klar Kurzfristig hast dann weniger FPS wie mit deiner 4070 grade in spielen/settings wo die 12gb noch reichen, aber es liegt auch bisschen in der Natur der Sache das mehr Ram mehr Strom schluckt, da müsste AMD die Physik besiegen.
Freut mich btw sehr ein nettes Gespräch hier zu führen. Wobei natuerlich auch die Frage ist ob wenn man die Radeon um 15% im Powertarget senkt ob dann auch der Speed um 15% linear mit zurueck geht, vermute eher nicht.
Wo hast du denn btw eine 4070ti mit 5 Jahren Garantie gefunden finde nur 3 von Gigabyte mit 4 Jahren auf gh.de 7900 XT finde ich nur mit max 3 Jahren.
calippo schrieb:
Ja, aber irgendwann muss man sich damit abfinden, dass diese Zeit der relativ günstigen Hardware, die guten Leistungssprünge der Generationen und die grafisch bereits sehr ordentlichen aussehenden und gut skalierenden Spiele wohl vorbei ist.
Ich wünschte es ging mal in ne Andere Richtung, aber Fotorealismus scheint mit UE5 das neue Ziel, hätte auch mehr Lust am Gameplay hatte mir damals sogar ne Wii gekauft, weil es mal was anderes war. Wuerde Augment Reality viel Potenzial sehen, wenn man es mal bezahlbar und gut umsetzt, war damals von den Demos von CastAR das ja ursprünglich bei Valve entwickelt wurde sehr begeistert, ja bei dem Konzept braucht man quasi ne Folie wohin man was projiziert oder so ähnlich, aber dachte schon man könnte seine Monitore durch ne leichte Brille und ein paar Folien ersetzen, aber leiter hat sich das bisschen verlaufen bzw ist in ne komische Brettspielecke abgerutscht. Das leider zu nem Kinderprodukt verkommen: https://www.theverge.com/2019/9/24/...ed-reality-glasses-jeri-ellsworth-kickstarter
calippo schrieb:
Man könnte das mal in einem Zeitstrahl darstellen, gefühlt waren das 10-15 Jahre Paradies und davor und danach sieht es halt deutlich schlechter aus. Wird nicht der einzige Bereich bleiben, bei dem wir merken, dass es bessere Zeiten gab.
Naja, dann darfst Du Dich halt nicht wundern, warum andere Entscheidungen treffen, die Du nicht so richtig nachvollziehen kannst.
Ich spiele ja auch nicht mehr viel, aber wenn ich mal was starte und das jetzt wieder butterweich läuft, dann bestätigt das meine Kaufentscheidung und wenn ich in Zukunft durch die 12GB Probleme bekomme, dann finde ich eine Lösung dafür, da mache ich mir doch jetzt keine Gedanken.
Ja hätte ich ordentlich hohes Einkommen würde ich da sicher auch trotz wenig Nutzung mehr Geld rein investieren. So überleg ich mir das halt 2x, ich kann auch verstehen das Leute in den sauren Apfel beißen und die 4070 z.B. kaufen, nur sollte man zwischen persönlicher Entscheidung und allgemeiner Lage unterscheiden, ich persönlich gewichte z.B. Opensource Linux Support sehr wichtig, aber ich würde niemals Argumentieren das AMD GPUs alternativlos sind wegen dem Linuxsupport, weil ich weiß das eben für >85% der Leute im Moment Linuxsupport nicht so wichtig ist und für reines Spielen wo man den Rechner eh mit proprietärer Software voll macht reicht zur Not auch der proprietäre Linux Treiber. Ich würde höchstens mit dedizierten Linuxusern und auch das nur sehr wenig drüber streiten aber nicht mit allen Grafikkartenleuten und sagen "ohh die Spielefirmen sollen doch einfach Linux besser unterstützen", man muss ja bisschen von sich aus weg denken können
Ich denke du bist mit ner 4070ti auch nicht der Kunde den ich im Kopf habe der der sich keine 4080 leisten kann, die hättest du dir mit bisschen Bauchschmerzen dann sicher auch leisten können, speziell wenn du bisschen mehr spielen würdest, right? Bzw vielleicht hat dich auch nur der Stromverbrauch davon abgehalten bzw Wärme, ich denk den der in der Miningkriese zig Jahre auf ne Bezahlbare Karte wartet die er dann vielleicht auch wieder 3 Jahre benutzen will, der wird mit dem Angebot meiner Ansicht nach über den Tisch gezogen, zumindest ein bisschen.
Es geht mir hier auch nicht um Rot vs Gruen oder so, primär vielleicht auch ein bisschen aber nicht primär, ich finde es gut wenn die Hersteller mit wenig ram einfach auf die Nase fallen weil sie ihre Releasepolitik überdenken und wenn die 4070 auf 550/500 Euro schnell nachgeben muss reduziert das auch die Preise aller anderen Grafikkarte inklusive dem Gebrauchtmarkt auch bei AMD. Ich hab mich informiert bezogen auf vor 2023 und ja da hab ich schnell gelernt das es stimmte das 8gb aber teils auch 6gb wirklich gereicht hat, außer man wollte Texturmods benutzen, ich akzeptiere Wahrheiten auch wenn sie nicht zu meinem Team passen. Nur scheint eben grade ein bisschen eine Zeitenwende, primär in Bezug auf 8gb, aber ein bisschen wackelt eben auch 12gb spätestens bei UHD (und RT).
Und das nehm ich dann auch zur Kenntnis bisherige Spiele kamen eben fast immer auf ps4 und ps5 raus die mussten auch mit 8gb unified ram laufen, jetzt kommen eben welche exclusiv für die neue Generation raus, daher ändert sich das eben grad stark. Und ja auch ich denke das die meisten games mit 12gb die nächsten 1-2 Jahre recht gut laufen werden, aber eben nicht alle und mir wären da 600 Euro zu viel für und da scheine ich nicht alleine zu sein.
calippo schrieb:
Ich wundere mich hingegen über Leute, die Geld ins Auto stecken. Das habe ich bewusst abgeschafft und schüttle regelmäßig den Kopf, wenn ich an der Waschstraße vorbei komme, wo Leute mehr für die Reinigung ihres Autos zahlen, als ich für meine bereits absurd teure Grafikkarte in der gleichen Zeitspanne.
Naja nicht überall ist gute Anbindung, bei mir kommen glaub 5 Busse pro Tag oder so, aber klar ist auch ein Luxus teilweise, aber wuesste nicht wie ich mit dem Bus zu ner Arbeit hin käme.
Ergänzung ()
Fallout667 schrieb:
Jede PS5 Konsole ist halt gleich, da kann man dann auch entsprechend optimieren. Wenn du das auch für PCs hinbekommst dann herzlichen Glückwunsch.
Ja und deshalb sollte man eben nicht sagen oh die Konsole hat auch nur vermeintlich 12gb Vram (auch wenn das bestenfalls ne Halbwahrheit ist) daher wird das auch für PCs die nächsten Jahre reichen genau weil das nicht so gut optimierbar ist für PC erwarte ich mir 2 Jahre nach Konsolenrelease für 600 Euro mehr oder wenigstens gleich viel VRam hat wie die Konsolen Unified haben, die RTX 1070 hat das auch geschafft für 500 Euro. Vielleicht hast du ja irgendwie 100% Inflation in deinem Kopf schon abgesegnet dann wären das umgerechnet 300 Euro dann waers tatsächlich ein Schnäppchen. Ich weiss nur nicht ob sich dein Gehalt in letzten 3-7 Jahren auch verdoppelt hat, wenn ja Glückwunsch vorausgesetzt du hast vor 3-7 Jahren gearbeitet.
Und so mehr ich drüber nachdenke ist das der echte Vorgänger:
RTX 1080 -> RTX 4090
RTX 1070 -> RTX 4080
RTX 1060 (6gb) -> RTX 4070
Die Ti Modelle lass ich mal aussen vor, und wenn man das so betrachtet sind die Aufpreise deftig.
Also nach der 1080 kam noch die 1080ti, die Titan X Pascal und die Titan Xp. Das waren die Karten mit dem großen 102er Chip. Das sind die Vorläufer der 4090 und nicht die 1080, die hat doch nur den kleine 104er Chip. Wie kommst du dann auf diese Karten als Vorgänger?
Generell gefragt was glauben die Leute die hier die 4080 als 4070 und die 4070 als 4060 sehen und die 4080 als eigentliche 4080, was für Chips Nvidia da entwickelt hat? Wenn die 4090 eigentlich die 4080 ist, welcher Chip soll dann die 4090 werden? Haben die den bei der Entwicklung dann eingestampft und sich gesagt" ach wir labeln jetzt einfach alle ne Nummer nach oben um und werfen den dicksten Chip weg?"
Die 60er Karten waren schon immer der 106er Chip, wenn jetzt die 4070 angeblich die 60er Karte ist, warum hat die dann den 104er Chip? Oder ist das eigentlich der 106er und Nvidia hat den nur umgelabelt?
Warum gibt es denn dann den extra 103er Chip?
Abgesehen von einem Laptop den ich nutze um wow zu spielen, ist kein letzter PC aus dem Jahr 2007 einfach nicht mehr brauchbar (und auch schon seit 2 Jahren tot, deshalb Laptop). Ich konnte zwar viel mit Konsolen überbrücken, aber es gibt zunehmend Games die ich am PC spielen will, die auf dem Laptop mehr schlecht als Recht laufen. Ich plane deshalb mit einer Neuanschaffung in diesem Jahr, aller Voraussicht nach ein 5800x3d mit 4090.
Meine Fresse, zockt doch einfach die Games, dann werdet ihr es ja sehen ob es gut läuft und jeder kauft was er für richtig hält. Bei dem Diskussionsbedarf braucht die Hälfte vermutlich hier eh nur eine IGPU fürs Forum weil die Karte im PC eh nur verotten würde .🤣