News Umfragen zum Verkaufsstart: Wie (un)beliebt ist die RTX 4070 Ti in der Community?

spulweggla schrieb:
Den Wechsel der PL-Krone vom Desktop hin zum Laptop kann man aber unschwer verleugnen. Zwar pfui, aber nun mal Realiltät.
Wird dem PC wohl wie den Dinos ergehen.
Ca. 1000W incl. Monitor aus der Steckdose zu verheizen ist im Winter ja noch akzeptabel,
um die Erdgasreserve zu schonen, aber im Sommer....
 
twixxn schrieb:
Klar kann ich es limitieren. Aber das sind alles händische Eingriffe der Nutzer. Ich würde mir halt einfach wünschen, dass man eben auch den Verbrauch bei der Entwicklung besser berücksichtigen würde.
Ein TDP-limitierter Chip wird ineffizienter. Er hat eine zu große Fläche für die Leistung, die ihm abgefordert wird. Im TDP-Limit können die Compute-Einheiten nicht mit optimalen FLOPS/W rechnen. Außerdem bezahlt man zuviel für die nun überflüssige Waferfläche.

Es ist also unsinnig, eine GPU mit einem viel zu großen Chip zu kaufen, um sie dann ins Power-Limit zu legen. Ist so sinnvoll wie mit einem 600PS-Mobil zum Brötchenholen zu fahren.

Statt dessen ist einfach sinnvoller, eine Notebook-GPU zu erwerben. Die gibt es nur unter 150 W.
Ergänzung ()

Performator schrieb:
Ca. 1000W incl. Monitor aus der Steckdose zu verheizen ist im Winter ja noch akzeptabel,
Das ist aber nicht, was mal Mainstream im Desktop war. Das waren so ca. 200-400 W.

Die Marken oberhalb von 500W waren für Freaks. Und genau die sind jetzt übrig geblieben, während die meisten Otto-Normal-Anwender mit inzwischen Notebook-Netzteilen unterhalb der USB-C Power-Delivery-Spezifikation (20V, 5A, 100 W) hinkommen.
 
Falc410 schrieb:
Ich muss ehrlich sagen, ich finde es gar nicht so schlecht, dass die Preise so hoch sind. Endlich sind Grafikkarten wieder verfügbar und können einfach so bestellt werden. Vorher war das nicht möglich und man musste 900 Euro einem zwielichtigen Typen geben um dann eine Karte ohne Garantie zu bekommen. Dann lieber gleich vom Händler.
Niemand musste von Scalpern kaufen.... Im Gegenteil... Niemand hätte denen auch nur einen Cent in den Rachen werfen sollen, dann hätte sich das Thema von alleine erledigt.

Falc410 schrieb:
Ist genau so eine unpopuläre Meinung wie, dass Benzin noch teurer werden sollte damit weniger Leute die Straßen verstopfen. Nur halt mit dem Unterschied, dass leider auch viele beruflich auf Benzin angewiesen sind (Krankenwagen, Feuerwehr etc). Geforce-Karten für wissenschaftliche Zwecke interessiert der Aufpreis nicht.
Du hast eine sehr seltsame Weltanschauung, wenn du glaubst dass die meisten Menschen nur zum Spaß im Auto sitzen... Wie wärs mal nicht den Bullshit weg zu gehen und vielleicht sinnvolle und nützliche Ideen zu bringen?
Home Office hält definitiv mehr Leute von der Straße fern, als es Spritpreiserhöhungen tun. Amazon und Zalando und co verleiten auch mehr Leute dazu einfach zuhause zu bleiben und von der Couch aus zu shoppen.

Manchmal hat man einfach nur noch das Gefühl, dass hier die EGOISTEN Mentalität Überhand hat. Solange es einen selbst nicht einschränkt sollen ruhig alle anderen darunter "leiden".
 
  • Gefällt mir
Reaktionen: Mensor
Laphonso schrieb:
Da sind wie uns doch einig. Du hast es nur anders formuliert. Mir ist unklar, wieso Du jetzt streiten willst :confused_alt:
Möglicherweise grundsätzliches Mißverständnis, aber die Art und Weise mit dem "Komiker" Kommentar ging mir auf den Keks. Nun ja egal, lassen wir es...
:schluck:
 
  • Gefällt mir
Reaktionen: Laphonso
bommfritz schrieb:
Nun gut hab die Inno bestellt, komme von der 2070 Super, muss ich bei der Installation die Treiber entfernen?
Hab akutell den neuesten Treiber drauf. Oder kann ich die alte Karte raus neue rein und Treiber drauf lassen?
Ich zumindest, werfe den alten Treiber, aber auch das NV Panel sowie die PhysX SW runter und fahre danach gleich den PC herunter. Dann tausche ich die Karte und fahre den PC wieder hoch. Dann installiere ich Treiber, Panel und PhysX neu. Ein Freund von mir tauscht die Karten direkt und installiert den Treiber nochmal neu. Ich glaube aber, dass man so oder so den Treiber nochmal neu installieren muss.
 
In den Antwortmöglichkeiten fehlten mir Optionen zur VR Nutzung.
Aktuell nutze ich eine 3070 und hatte mir durch die 4070TI eine mögliche deutliche Bildqualitätssteigerung für Assetto Corsa Competizione in meiner Index erhofft, ohne mein Netzteil upgraden zu müssen, für einen Preis, der angemessen ist.
Eine Steigerung wäre es wohl auch, aber dank der knappen Speicherbandbreite offenbar nicht so, wie es sein könnte. Und dafür ist sie dann doch eindeutig zu teuer für mich.
 
Wechsler schrieb:
Die Marken oberhalb von 500W waren für Freaks. Und genau die sind jetzt übrig geblieben, während die meisten Otto-Normal-Anwender mit inzwischen Notebook-Netzteilen unterhalb der USB-C Power-Delivery-Spezifikation (20V, 5A, 100 W) hinkommen.
Das kann ich voll bestätigen. Ich nutze meinen PC nur noch als Gamingkiste.
Alles andere läuft auf einen Notebook das unter Vollast 10W aus der Steckdose zieht.
Kommen dann noch 50W für den Monitor dazu.
Die nächste Gamingkiste wird wohl ein Notebook werden.
Diese annabolische Strommasthardware ist einfach eine Fehlentwicklung.
Genau so schwachsinnig wie 600PS Autos im Stadtverkehr.
 
  • Gefällt mir
Reaktionen: voalirus, PaKu80 und Wechsler
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Mcr-King
4K und oder +RT is noch IMHO luxus. Der Name der Grafikkarte dabei spielt keine Rolle.
Auch 1440p 200FPS Ultra und oder RT sind Luxus.

Gaming allgemein auf solchen Einstellungen ist noch Luxus.
Wenn wir hier auf CB in der Zukunft 8K Benchmarks sehen werden, wird sich das obere in die Mittelklasse verdiener etablieren.

Bis dahin ist es und bleibt es ein Luxusproblem, ja der Sociale druck sowas zu haben wollen war noch nie so groß und irgendwelche SM Influencer machen das auch nicht besser.

Und nach 15 Jahren ist es nunmal passiert das so eine art von Luxusgaming teuer ist.

Über das Thema sich aufzuregen und streiten wird daran nichts ändern.
 
  • Gefällt mir
Reaktionen: PaKu80
Performator schrieb:
Das kann ich voll bestätigen. Ich nutze meinen PC nur noch als Gamingkiste.
Mein alter Desktop dient nach dem Aufrüst-Stop auch nur noch "Retro-Gaming". FSX läuft zum Beispiel ziemlich gut darauf. 😁

Performator schrieb:
Alles andere läuft auf einen Notebook das unter Vollast 10W aus der Steckdose zieht.
Kommen dann noch 50W für den Monitor dazu.
Das Notebook genehmigt sich zwischen 4 und 40 W und hat eine APU mit 448 Shadereinheiten, 32 TMUs und 8 ROPs. Durchaus brauchbar also. Der Lucienne-Sechskerner mit 12 Threads ist sowieso meine schnellste x86-CPU inzwischen. Habe inzwischen auch keinen PC-Monitor mehr, das alte 1080p60-LCD hat aber auch nur 15-20 W gezogen, aber 1080p60 habe ich ja auch im Notebook und auf dem TV.

Performator schrieb:
Die nächste Gamingkiste wird wohl ein Notebook werden.
Diese annabolische Strommasthardware ist einfach eine Fehlentwicklung.
Genau so schwachsinnig wie 600PS Autos im Stadtverkehr.
Ist bei mir schon passiert. Meine leistungsfähigste GPU steckt in der PS4 mit 75 W Leistungsaufnahme ab Steckdose für den Slim-Refresh. Mein Display dafür ist ein 40"-LED-TV mit 30 W durchschnittlicher Leistungsaufnahme.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Mcr-King
PS:
Problem sehe ich nur in dem Sozialen und Social Media Druck, das 13 Jährige Kinder im Westen schon so Manipuliert werden, das Sie das haben wollen müssen. Dieser Drang etwas zu haben ist einfach Krass geworden.

Ich habe weinende Kinder die im Laden ausrasten, wenn die Eltern nicht das neuste und beste bezahlen wollen.
 
  • Gefällt mir
Reaktionen: PaKu80, Mcr-King und Laphonso
wontiii schrieb:
Bei 1400€ wäre ich auch dabei und selbst der Preis wäre bei einer Karte zum Gamen mehr als fragwürdig....
Das ist seit über 30 Jahren aber dasselbe Problem. Man hat damals auch so bei den ersten SVGA Karten argumentiert Ende der 80er und Anfang der 90er. Da reichte auch EGA für das Mindestmaß oder eine günstige VGA Karte.
Die Top End Karten und next gen early adopter Karten sprengen immer den Preisrahmen.

Die 1988er SVGA Karten haben umgerechnet 1200 Euro gekostet.

Und damals waren die schnellsten CPUs auch teuer und die besten Gaming Kisten lagen bei 3000-4000 DM, aufwärts, heute 1:1 in Euro.

Wir haben vor wenigen Jahren für die top End GPU Lösungen im SLI Modus auch 600-2000 Euro abdrücken können.

Top End GPU Performance im Maximum war immer teuer, ist immer teuer, bleibt immer teuer.
1673274759484.png


Das Gute: Niemand "braucht" eine 4090 fürs "Gaming" :-)
 
Aber Achtung, die "VGA Wonder" war eine "Super-VGA"-Karte. Diese 499-699 Dollar hat man gezahlt, um eine Grafikkarte zu bekommen, die noch mehr als "VGA" konnte. Mehr als VGA brauchte man 1988 auf dem PC aber für rein überhaupt gar nichts. Das war reines Flexing.

Aber erst recht brauchte man (Super-)VGA seinerzeit nicht für PC-Spiele!

Denn PC-Spiele unterstützten 1988 nämlich nur CGA und EGA und so gegen 1990 kamen dann die ersten Titel mit MCGA-Support (Multi-Color Graphics Adapter - 256 Paletten-Farben aus 262.144).

MCGA wurde dann später auf billigen VGA-Karten aus Tawain emuliert und wurde in den frühen 1990ern für mehrere Jahre der Quasi-Standard, das 1080p der 90er wenn man so will. Die originale VGA konnte das gar nicht, die war zum Zocken ebensowenig zu gebrauchen!

Aber eine ATI Wonder mit 1024x768 bei 16 Paletten-Farben oder 800x600 bei 256 Paletten-Farben war fürs Gaming wirklich absolut komplett nutzlos. Denn mehr als 0,1 fps konnte man auf der abgebildeten 8-Bit-ISA-Steckkarte gar nicht darstellen. Ja, das nämlich seinerzeit die "Top-GPU-Performance". Über die Speicherbandbreite der installierten 512 KiB VRAM muß ich glaube ich kein Wort verlieren: Viel zu langsam zum Zocken.

Es hilft eben nichts, irgendwelche Screenshots rauszuzerren, man muß auch dabei gewesen sein, um solche Hardware überhaupt einordnen zu können. @Laphonso Das was du gefunden hast, ist ungefähr das 1988-Äquivalent von dem hier:

https://geizhals.de/asus-geforce-gt-730-90yv0h20-m0na00-a2613886.html
 
Wechsler schrieb:
Ein TDP-limitierter Chip wird ineffizienter. Er hat eine zu große Fläche für die Leistung, die ihm abgefordert wird. Im TDP-Limit können die Compute-Einheiten nicht mit optimalen FLOPS/W rechnen. Außerdem bezahlt man zuviel für die nun überflüssige Waferfläche.

Es ist also unsinnig, eine GPU mit einem viel zu großen Chip zu kaufen, um sie dann ins Power-Limit zu legen. Ist so sinnvoll wie mit einem 600PS-Mobil zum Brötchenholen zu fahren.

Statt dessen ist einfach sinnvoller, eine Notebook-GPU zu erwerben. Die gibt es nur unter 150 W.

Sehe ich komplett anders! Meistens ist die TDP nur so hoch, damit man den längsten Balken im Benchmark bekommt. Die Effizienz ist bei weniger Watt höher!

Nehmen wir die 4080. Hat eine TDP von 320 Watt und liefert da 100% an Leistung. Setzt man sie auf 250 Watt, hat man immer noch über 95% der Leistung, aber eben nur noch 80% Stromverbrauch. Entsprechend ist die Effizienz massiv besser geworden!
 
  • Gefällt mir
Reaktionen: Mcr-King
Ayo34 schrieb:
Nehmen wir die 4080. Hat eine TDP von 320 Watt und liefert da 100% an Leistung. Setzt man sie auf 250 Watt, hat man immer noch über 95% der Leistung, aber eben nur noch 80% Stromverbrauch.
Ich nutze eine 4GiB-GPU mit 60 W und eine mobile APU mit 25 W und eine 8GiB-PS4 mit 75 W. Die GPU rendert alles einwandfrei bis 1080p60 und die APU kommt auch prima zurecht mit allem so bis so ca. Witcher 3 Version 1.32. Und die PS4 spielt natürlich alles ab, was darauf erschienen ist, inklusive CyberPunk 2077 (bei 30 fps) und GT7 (bei 60 fps).

Ob die schweineteure Supercomputer-Karte mit Kokelstecker dann 250 W oder 320 W benötigt, ist mir da sowas von völlig Banane. Soviel Leistung benötigt "Gaming" schlicht überhaupt nicht. Deshalb brauchte es ja auch eine neue Version 4.0 vom Witcher, um einfach mit 128 Rays per Probe einfach nur sinnlos die Hütte zu heizen.

Letzteres hat man in Polen natürlich nur gemacht, um AMD schlecht aussehen zu lassen, aber es ist eben auch nicht gut für die Umwelt, hier bei uns noch sinnlos ein weiteres Kohlekraftwerk extra laufen zu lassen, um in einem Uraltspiel ein paar Spiegelungen zu bekommen. Das ist nämlich, worum es sich inzwischen nur noch dreht.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: scheru und Mcr-King
Wechsler schrieb:
Ich nutze eine 4GiB-GPU mit 60 W und eine mobile APU mit 25 W und eine 8GiB-PS4 mit 75 W. ...

Du hast behauptet, dass ein Chip mit TDP-Limit weniger effizient arbeitet und ich habe geschrieben, dass es Bullshit ist. Das war alles.
 
Gemeint war hier natürlich ein TDP-Limit deutlich unter 200 W, lies mal einfach den Thread zurück.
 
Laphonso schrieb:
Das ist seit über 30 Jahren aber dasselbe Problem. Man hat damals auch so bei den ersten SVGA Karten argumentiert Ende der 80er und Anfang der 90er. Da reichte auch EGA für das Mindestmaß oder eine günstige VGA Karte.
Die Top End Karten und next gen early adopter Karten sprengen immer den Preisrahmen.

Die 1988er SVGA Karten haben umgerechnet 1200 Euro gekostet.

Und damals waren die schnellsten CPUs auch teuer und die besten Gaming Kisten lagen bei 3000-4000 DM, aufwärts, heute 1:1 in Euro.

Wir haben vor wenigen Jahren für die top End GPU Lösungen im SLI Modus auch 600-2000 Euro abdrücken können.

Top End GPU Performance im Maximum war immer teuer, ist immer teuer, bleibt immer teuer.
Anhang anzeigen 1309481

Das Gute: Niemand "braucht" eine 4090 fürs "Gaming" :-)
Schön dass du das rauskramst. Kaufkraft war zu DM-Zeiten deutlich höher als heutzutage.
Wie auch immer du Top End GPU Performance definierst, die 4090 oder Titan ist die erste Titan die fürs Gaming gelabelt ist... WEIL NORMALERWEISE IST DIE TITAN KEINE GAMINGKARTE. Aber im Gaming Bereich gibts mehr Kaufkraft und weniger technisches Wissen....

Festplatten haben damals auch bis zu 1000€ für nen paar MB gekostet....

Und JEDER der aktuell sich ne 4090 zum Zocken holt. Kauft hier eben ein Halo-Produkt. Meine Wenigkeit eingeschlossen wenn ich Sie für 1400€ schießen würde....
 
Wechsler schrieb:
Mehr als VGA brauchte man 1988 auf dem PC aber für rein überhaupt gar nichts. Das war reines Flexing.

Aber erst recht brauchte man (Super-)VGA seinerzeit nicht für PC-Spiele!
Daher der 4090 Vergleich, die braucht man auch nicht , um PC Spiele erleben zu können ;)
Ergänzung ()

wontiii schrieb:
Und JEDER der aktuell sich ne 4090 zum Zocken holt.
....kauft sie, weil und solange es nichts schnelleres gibt. Ich hätte auch eine 4190 gekauft, aber muss auf die 5090 warten Ende 2024 :D
 
  • Gefällt mir
Reaktionen: one2know
Zurück
Oben