News Umfragen zum Verkaufsstart: Wie (un)beliebt ist die RTX 4070 Ti in der Community?

DeltaPee schrieb:
Also willst du Komödiant ernsthaft abstreiten, dass
Du am Thema vorbeischreibst ? Nein, Du hast die Orientierung komplett verloren in Deiner Polemik.
Die 3080 kostet 100 Euro weniger, die 3090 und 3090Ti kosten 100-400 Euro mehr als die 4070Ti.
Sie ist für 900-950 Euro die derzeit die bessere Wahl vs Ampere und wird daher Käufer finden.

Doof sehen z.B die August 2022 - 3090 Strix - 1300 Euro - Käufer also entsprechend aus. Weiterhin.
Ergänzung ()

Falc410 schrieb:
Ich suche immer noch händeringend ein Spiel, welches ein Upgrade von einer 3070 für mich rechtfertigt. Ich spiele in 1440p (um genau zu sein 3440x1440, also nochmal 5% mehr Leistung nötig als bei 16:9)
An Deiner Stelle würde ich abwarten. 2023 müssen die AAA Games erstmal abliefern und zeigen, ob und wie weit sie “nextgen“ Grafik und gut skalierbare RT Settings mitbringen .
Mit der 3070 hast Du auf UWQHD zumindest mit High und Very High Settings genug Raum selbst bei den Grafikfressern der letzten Jahre. Sowie DLSS in vielen Fällen.
 
Zuletzt bearbeitet:
brabe schrieb:
Ich kann mir auch eine 4090 kaufen, auf das Geld kommt es nicht an bei 2000+ Taschengeld im Monat.
Wozu eine Grafikkarte kaufen, wenn sie dann nicht voll taktet? Dann kann man doch auch die kaufen, welche nur das macht, was sie machen soll. Meine Karten waren bisher immer die 70er Reihe. Mal schauen, vielleicht wird es ja doch noch eine 4070
Dann ist also eine 250W GPU die am Limit läuft und keinerlei Reserven bietet für ein Spiel das morgen rauskommt sinnvoller als eine 4090 die mit Halbgas läuft und 180W zieht bei selber Framerate ? Kann man so machen. 😂

Hier gehts nur ums Geld, nicht um TDP Werte oder sonstiges. Und "voll takten" tut eine 4090 auch mit einem 50% Powerlimit wenn das Spiel schlicht nicht soviel Leistung braucht (vSync, FPS LImiter).

Und das Gehabe von wegen ich hab 2k über jeden Monat und weiss nicht hin vor lauter Kohle aber ich will halt nicht glaubt ausser dir vermutlich kein Mensch.:D
 
  • Gefällt mir
Reaktionen: Unti
DayvanCowboy schrieb:
Wer macht hier Witze? Das ist ne total ernste Angelegenheit. Raytracing trägt sicher zum Klimawandel bei, und sollte verboten werden
Ich rieche den Sarkasmus bis hier her 😂 .

Öko Debatten führe ich hier generell nicht.
Was ich sagen kann: Stromverbrauch ist mir generell vollkommen egal, wir sind nicht im Jahr 1910 oder so, wo elektrische Energie was neues ist und ich sehe es auch gar nicht ein, nur weil alte Boomer und Baby Boomer diese Welt zugrunde gerichtet haben, nun meinen Konsum einzuschränken ;)
 
  • Gefällt mir
Reaktionen: Gamecollector und DayvanCowboy
Bei Consumerelektronik ist eine absolute Beschränkung unbürokratischer, und hat sich ja anderen Bereichen, z. B. Beleuchtung oder beim Standby-Verbrauch schon gut bewärt.

Also einfach Xbox One und PS 5 als Maßstab nehmen und fertig die Begrenzung.
 
Neronomicon schrieb:
Viel besser wäre, GPUs, die über 200 W verbrauchen, eine Zusatzsteuer um 50% zu verpassen.:evillol:
Es müssen einfach von der Politik Anreize geschaffen werden. So sollten neben dem bedingungslosen Grundeinkommen, (natürlich einen positiven social credit score vorausgesetzt) zusätzlich cloud gaming credits, vielleicht so 2h pro Woche nach chinesischem Vorbild, verteilt werden.
 
Icke-ffm schrieb:
nicht Dein ernst oder ?!?
1. CP2077 ist ein Nvidia Game, 2 eines der am schlechtesten programierten games zur zeit.
und wenn Du die VegaVII anführst dann will ich bitte CP2077 auf VII vs RTX2080-8GB in UHD sehen denn das war seinerzeit der preisliche und zeitliche Gegner, und denke das ist auf keiner der beiden Karten noch mit +30fps Spielbar.
dann selbe Karten in FC6 in UHD auch ein AMD game dagegen.
selbst eine 4090 ist in CP in WQHD mit RT nur bei 64fps. und das obwohl es ein nvidia game ist !
Es geht doch nicht um "seinerzeit" sondern um deine Behauptung, dass mehr VRAM immer mehr bringt. Und ich behaupte dass eine moderne GPU schlicht mehr bringt als einfach nur plump VRAM drauf zu werfen. Ich nehm daher jederzeit die modernere Arch ggü. einer GPU mit schlicht mehr Memory.

Du kannst gerne auch FC6 als Beispiel nehmen für einen AMD Titel oder AC Valhalla. Da macht eine R7 auch keinen Stich mehr trotz 16GB superfast Memory ggü. einer 8GB 3070 und erst Recht nicht ggü. dem "Speicherkrüppel" 4070 Ti. Beides in UHD.

Icke-ffm schrieb:
und gen to gen vergleich ?!? ist klar das die neu schneller ist aber wenn dann behalte es im kopf und vergleiche eine 3080ti 12GB vs 6900xt 16GB in 2 jahren nochmal in UHD, da wird die 3080ti auch abkacken da eben die 12GB nicht mehr reichen.
Mit einem extremen Titel in zwei Jahren werden beide abkacken unabhängig vom VRAM.
 
  • Gefällt mir
Reaktionen: BorstiNumberOne und Laphonso
ThirdLife schrieb:
Es geht doch nicht um "seinerzeit" sondern um deine Behauptung, dass mehr VRAM immer mehr bringt. Und ich behaupte dass eine moderne GPU schlicht mehr bringt als einfach nur plump VRAM drauf zu werfen. Ich nehm daher jederzeit die modernere Arch ggü. einer GPU mit schlicht mehr Memory.
Das ist richtig, 12GB sind aber ein scheiß Witz.
Ich bin mit meiner 2080Ti vor Jahren in UHD in Horizon Zero Dawn als Beispiel schon ins VRAM Limit gelaufen mit 11GB und es hat Stuttering verursacht. Na klar, war mies portiert und lief wie Grütze, aber 12GB, im Jahr 2023? Bei knapp weniger Performance wie ner 3090/Ti - die 24GB, weißt du!.
Das ist ein Witz, einfach nur ein Witz, da kann die GPU noch so gut sein.

Und sagen wirs mal so, die 4090, 4080 und 4070Ti sind im Vergleich zu AMDs Karten natürlich die besseren gerade (Performance und vor allem die Effizienz, auch wenn mir die herzlich egal ist, wenn man misst, dann schon gleich und selbem Maßstab).

Somit gilt, NUR der Preis ist für den Arsch.
UND im unteren Segment verhält sich NV wie NV und zwar wie ein dämlicher Retard und macht wie immer zu wenig VRAM drauf.
4070Ti mit 16GB, 4080 mit 20GB und meinetwegen der 4090 die 24 (sinnloserweise für Gaming) auszustatten wäre am sinnvollsten, aber seit wann macht NV für den Consumer sinnvolle sachen...

Und ganz ehrlich, mich kotzt diese Debatte um die Features langsam richtig an.
In jedem Thread in dem man seine Meinung austragen kann, wird auf DLSS 3 + Frame Generation rumgeritten. Ja das könnte später auch den VRAM verbrauch kompensieren aber muss erstmal konstant unterstützt werden.
Ja schöne Gimmicks.
Gimmicks die unterstützt werden müssen.
Gimmicks die der 0815 Dau nicht mal kennt.
Das macht die 4070Ti auch nicht besser als ne 3090.
Die 3090 ist immer noch besser als das kastrierte Drecksding, sofern man von der unsäglichen Effizienzdifferenz absieht.
 
  • Gefällt mir
Reaktionen: Cornuostium
Wechsler schrieb:
Jetzt startest du also ein zwei Jahres altes LastGen-Uraltspiel von 2020 (!), um die nachgerüsteten Spiegelungen betrachten zu können.

Jetzt mal im Ernst: Niemand, außer PC-Freaks, beschäftigt sich noch ernsthaft mit dem zwei Jahre (!) alten "CyperPunk" mit einem Metascore von 57 (!). CDP RED hat für die Originalversion sogar den Update-Support komplett eingestellt. Dieses Franchise ist mausetot.

Aber der 450W-GPU-Spieler hat schlicht nichts anderes. Ist das nicht absolut bitter?
Du bist ja nen ganz fröhlicher und netter Geselle :volllol:.

Tja, ich starte nicht CP2077, um mir irgendwelche Spiegelungen anzuschauen...
nein, ich spiele es sogar regelmäßig und dabei ist mir das einfach aufgefallen.

Schon komisch, daß das (in your own mind) LastGen-Uraltgame
bei den meisten bzw allen --- aktuellen --- Tests von Grafikkarten herangezogen wird. Wow. Strange.

Hätte ja auch GOTG nehmen können, aber da bin ich noch nicht zu gekommen, dass zu installieren,
denn ich habe ja auch noch sehr viele mehr uralte AAA-Schinken auf meinen TBs verteilt
(u.a. GTA V, RDR2, Witcher 3 etc), die auch regelmäßig gespielt werden wollen.
Wird halt gespielt, wozu ich gerade Laune habe.

Werde dann Dir zuliebe aber GOTG (na gut, ist ja auch schon fast wieder "uralt")
die Tage mal installieren und Dir dann mitteilen, ob das toll oder nicht toll mit RT ist.

Ist das nicht absolut nett von mir :daumen:
 
HAse_ONE schrieb:
Wenn schon die Boardpartner selbst "Witze" über den Preis machen.
Anhang anzeigen 1308275

Alle Grafikkarten die jetzt rausgekommen sind von AMD oder Nvidia sind deutlich zu teuer. Wo soll das noch hingehen? Nächste Gen gibt's dann 5060 für 800€?
Haha nice one
 
DayvanCowboy schrieb:
...Raytracing trägt sicher zum Klimawandel bei, und sollte verboten werden

Gut dass mit deiner voll und ganz ernst zu nehmenden Mitteilung Grafikkarten mit deaktivierten RT-Feature ab sofort als Treibhausgas-bindend gelten. So muss sich niemand mehr vor Flatulenzen ängstigen.

DayvanCowboy schrieb:
Es müssen einfach von der Politik Anreize geschaffen werden...

Unnötig, da wir nun wissen dass eine aerodynamische Dunstabzugshaube mit RT-Features off im Rechner ausreicht.

BTT.
 
Unti schrieb:
Was ich sagen kann: Stromverbrauch ist mir generell vollkommen egal, wir sind nicht im Jahr 1910 oder so, wo elektrische Energie was neues ist und ich sehe es auch gar nicht ein, nur weil alte Boomer und Baby Boomer diese Welt zugrunde gerichtet haben, nun meinen Konsum einzuschränken ;)

diese haltung ergibt keinen sinn.

ich sehe hier nur zwei möglichkeiten:

- entweder negierst du die auswirkungen des konsums auf "die welt" dann brauchst es auch keinen schuldigen

- oder du erkennt die negativen auswirkungen des konsums, erkennst die fehler der vorgängergeneration(en), und passt dein verhalten dahingehend an


aber - einerseits irgendwelchen boomer die schuld am weltuntergang zuzuschieben und selber keine notwendigkeit sehen konsequenzen zu ziehen, das ist ziemlich sinnlos und inkongruent

dann bist du nur der plärrende millennial, der nichts geschissen kriegt, in einem der reichsten länder der erde in weitestgehender sicherheit wohnt, aber ständig seinen eltern die ohren volljault wegen irgendwelcher schuld, wobei die am wenigsten dafür können, weil das allgemeine verständnis überhaupt nicht soweit war wie heute, aber selber nichts unternehmen kann oder will, weil er halt eine nulpe ist. Wer HEUTE nicht handelt trägt die schuld.

also mach es dir einfach indem du einfach die auswirkungen des konsums negierst, aber sabbel nicht rum von wegen boomer und schuld, und dann "ich sehe aber nicht ein, das ..."

eine möglichkeit die ich sehe, ist z.b. luxusgüter auf solarenergie "umzurüsten" (oder generell soviel private solar- und windenergie wie möglich zu nutzen), und dann wird natürlich verbrauch interessant, weil man halt nur eine begrenzte menge an energie zu verfügung hat.
zudem wird man autonomer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: oll1e und T8Force
Laphonso schrieb:
Du am Thema vorbeischreibst ? Nein, Du hast die Orientierung komplett verloren in Deiner Polemik.
Die Bedeutung vom Begriff „Polemik“ scheint dir wohl nicht ganz geläufig zu sein… Einfach mal nachschlagen.
Darüberhinaus, Glashaus und Steine werfen…

Laphonso schrieb:
Die 3080 kostet 100 Euro weniger, die 3090 und 3090Ti kosten 100-400 Euro mehr als die 4070Ti.
Sie ist für 900-950 Euro die derzeit die bessere Wahl vs Ampere und wird daher Käufer finden.

Doof sehen z.B die August 2022 - 3090 Strix - 1300 Euro - Käufer also entsprechend aus. Weiterhin.
Die 2080Ti war auch EOL teurer als die 3080. Du scheinst es einfach nicht zu kapieren. Nur weil der Vorgänger zum EOL noch teurer als der Nachfolger ist und irgend jemand so blöd war für 1300 ein EOL Produkt zu kaufen, impliziert das nicht das Prädikat „guter Preis !“ beim Nachfolger.
Ja die 4070ti ist effizienter, in etwa gleich schnell, aber für die Platzierung im aktuellen Portfolio zu teuer! Das sehen Redaktionen und die meisten User hier! Siehe Umfrage!
Selbstverständlich ist die 4070ti die bessere Wahl ggü. Ampere bei gleichem oder höheren Preis letzterer. Nur in diesem Vergleich bzw. unter diesem Aspekt. Aber wenn eine 3090 gebraucht iwo für 600-700 zu haben wäre würde ich sie wohl auch vorziehen, wegen den 24 Gb Vram!
Ob nötig oder nicht, die letzten Game Release zeigen eine eindeutige Tendenz des Speicherbedarfs nach oben. Für nur QHD eigentlich viel zu teuer und zu schade! Aber darüber 34“ @21:9 usw. droht mit RT usw. eine Enttäuschung, weil der Chip mehr könnte, aber vom Vram begrenzt wird. Und ich gehe davon aus dieser Preisbereich eher die QHD+ Spieler sind…
Auch wenn die 4080 auch viel zu teuer ist. Würde ich jedem raten lieber diese für 1300 zu kaufen, statt für 900 bis 1000 die 4070ti.
 
Mcr-King schrieb:
nenne mir 5 GPUs für unter 200€ mit denen man besser zocken kann als auf der PS5. 😉

Solange mir das Ding keine Maus-/Tastatursteuerung gönnt, ist die Auswahl riesig :D

Overwatch läuft schon auf einer GTX 750 Ti mit 60+ fps, und Genshin Impact ist selbst mit einer Haswell iGPU halbwegs spielbar. Immer noch besser, als mir einen Klotz namens Controller ans Bein zu binden.
 
  • Gefällt mir
Reaktionen: BorstiNumberOne
DagdaMor schrieb:
Schon komisch, daß das (in your own mind) LastGen-Uraltgame
bei den meisten bzw allen --- aktuellen --- Tests von Grafikkarten herangezogen wird. Wow. Strange.
Ja, das zeigt eben, daß Neuerscheinungen bei Leistung von sogenannten "Gaming-PCs" keine Rolle mehr spielen, Man nimmt jetzt irgendwelche Uralttitel, meinetwegen auch Witcher 3, die dann in Version 4.0 128 Rays pro Probe nachgerüstet bekommen, um möglichst viel elektrische Energie auf High-End-GPUs zu verheizen.

Völlig absurd und komplett sinnlos.

Es gab mal Zeiten, da war Spieleprogrammierung das maximal möglich aus der seinerzeit noch beschränkten Hardware herauszuholen. Bei dem sog. "Hobby Gaming-PC" passiert aber inzwischen genau das Gegenteil.

Und wenn's dann an solche sinnlose Verschwendung von beschränkten Ressourcen geht, dann müssen dem polnischen Studio zum Wohle aller mal die Grenzen aufgezeigt werden, ganz egal was die Lederjacke bezahlt. Denn deren "Entwicklungsarbeit" hat sich im Jahr 2022 tatsächlich darauf beschränkt, den Stromverbrauch in unserem europäischen Verbundnetz sinnlos hochzutreiben.
Ergänzung ()

JMP $FCE2 schrieb:
Solange mir das Ding keine Maus-/Tastatursteuerung gönnt, ist die Auswahl riesig :D
Wenn das so ein riesen Problem sein soll, dann kommt es eben auch in die nächste EU-Richtlinie rein. Dann bekommst du eben deine Maus und Tastatur per Accessibility-Verordnung für Menschen mit Behinderung.
 
  • Gefällt mir
Reaktionen: Dittsche und Mcr-King
Dittsche schrieb:
uff...da hätt ich auf Nvidia Seite lieber direkt die 4080 genommen. Macht den Kohl jetzt auch nicht fett.
Und meine 7900XTX hat 1130€ inklusive Versand direkt bei AMD gekostet. Das ist dann doch noch eine andere Performance Klasse zum selben Preis.
Wie ich schon schrieb, es kommt in mein System nichts anderes als Asus, die FE 4080 wäre natürlich der bessere Deal aber die Strix ist schlecht bis gar nicht verfügbar und bei einem Preis von 1600€+ steig ich aus. Zum Thema "Kauf dir doch eine FE": ich Pack auf meinem BMW auch keine Mercedes Felgen.

Was AMD und Grafikkarten angeht halte ich Abstand, da der Treiber Support einfach unterste Schublade ist, außerdem, das was man von AMD und der XTX hört zwecks Kühlung.. hätte ich ja gar kein Bock drauf.
 
Wechsler schrieb:
Wenn das so ein riesen Problem sein soll, dann kommt es eben auch in die nächste EU-Richtlinie rein. Dann bekommst du eben deine Maus und Tastatur per Accessibility-Verordnung für Menschen mit Behinderung.
Zeig uns doch mal bitte die Verordnung, die Gaming Rechnern, oder Desktops allgemein, den Stromverbrauch vorgeben soll. Ich konnte dazu beim besten Willen nichts finden.

Das könnte ggf. - wenn der Rest der Welt auch mitspielen würde - dem Rennen nach immer größer/schneller/raytraciger tatsächlich Einhalt gebieten. Was ansich gut wäre. Und im schlimmsten Fall schlachtet die EU damit den Spielemarkt in unserer Bürokratengemeinschaft..
 
  • Gefällt mir
Reaktionen: .Ake
Vitche schrieb:
Mitten im Trubel der CES 2023 hat Nvidia die GeForce RTX 4070 Ti (Test) nicht nur vorgestellt, sondern auch schon in den Handel entlassen. Eine Founders Edition gibt es zwar nicht, wohl aber Custom-Designs, die auch einen Tag nach Marktstart noch immer ab rund 900 Euro verfügbar sind. Was hält die Community davon?

Zur News: Umfragen zum Verkaufsstart: Wie (un)beliebt ist die RTX 4070 Ti in der Community?
An die Redaktion:
Findet ihr, dass eine solche Umfrage sinnvoll und notwendig ist?
Ich wüsste nicht was das Umfrageergebnis aussagen soll, was irgendwie relevant sein sollte und die Informationsqualität auf CB erhöht.
Diese hätte, wenn und aber Diskussion findet man gefühlt in jedem zweiten Thema in den Foren, Tests und Berichte sobald in irgendeiner Weise AMD und Nvidia aufeinander treffen.
Das wird so langsam lästig und mit einer solchen Umfrage wird das Ganze, meiner Meinung nach, noch mehr angeheizt.
Ist ja nicht so, dass es durch die CES nicht genügend technische und informative Berichte von euch gibt, die lesenswert sind. Warum also eine solche, ich nenn es mal, Stammtischumfrage, die sowenig Inhalt besitzt und die in absehbarer Zeit wieder nichtig sein wird?
Hardware etabliert sich auf dem Markt oder halt auch nicht, abhängig vom Kunden und dem was die Hardware bietet.

Löblich und ein Wunsch von meiner Seite wäre daher eure redaktionelle Arbeit in eure tollen Test und Berichten zu verwenden, statt in solche Umfragen.

Ich lese immer weniger Kommentare zu den Tests/Berichten, es wird einfach zu mühselig wichtige Beiträge zu finden. Schade um die oft interessanten Informationen eines Communitymitglieds, was in der Flut an unnützen Beiträgen verloren geht. Für mich verliert auch daher CB etwas an Qualität.
 
  • Gefällt mir
Reaktionen: BorstiNumberOne, Mcr-King, Unti und eine weitere Person
Witzig wie es hier wieder nur um AMD vs Nvidia geht. Oder 12GB VRAM vs 20GB VRAM oder RT an aus.... :p

Fakt ist das die neusten NVIDIA als auch AMD Karten ziemlich gut sind. Niemand wird hier groß Probleme bei der Performance haben wenn er auch nur ein paar Regler bewegen kann.

Man muss sich halt nur entscheiden zwischen...
  • gute und weniger gute Treiber
  • sehr gute RT Leistung oder gute RT Leistung
  • sehr hoher Preis vs hoher Preis
  • effiziente GPU vs weniger effiziente GPU
  • Monster Grafikkarte vs große Grafikkarte
....
 
  • Gefällt mir
Reaktionen: YulawZ1, BorstiNumberOne, Icke-ffm und 2 andere
Meister1982 schrieb:
Man muss sich halt nur entscheiden zwischen...
  • gute und weniger gute Treiber
  • sehr gute RT Leistung oder gute RT Leistung
  • sehr hoher Preis vs hoher Preis
  • effiziente GPU vs weniger effiziente GPU
  • Monster Grafikkarte vs große Grafikkarte
Sollte hier Nvidia immer links stehen?
Denn hier gehts ja um die 4070Ti und die ist weder ein Monster in der Größe noch ist sie teurer als die Konkurrenz
 
  • Gefällt mir
Reaktionen: angband1 und Mcr-King
Zurück
Oben