Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsUmfragen zum Verkaufsstart: Wie (un)beliebt ist die RTX 4070 Ti in der Community?
Der Amiga war PCs ja lange überlegen in Sachen Gaming oder in manchen Spielen zumindest ebenbürtig. Aber die aufkommenden 3D Shooter liefen halt nur auf PC.
Aber stimmt schon, sehr weit verbreitet war das damals noch nicht.
Wechsler schrieb:
Tja, unsereins konnte sich mit Taschengeld so ein Komplettsystem gar nicht leisten.
Vom Taschengeld konnte ich mir das auch nicht leisten. Ich habe in den Ferien oft gearbeitet und alles gespart.
Das war ne Menge Lehrgeld, aber jeden Pfennig wert und hat mir bestimmt so manche Dummheit später erspart und die vier Jahre habe ich den PC ja sehr intensiv genutzt, nicht nur zum spielen.
Mcr-King schrieb:
Bin ja mal gespannt ob dieses mal was unter 200€ kommt was nicht vom Notebook oder Aufgewärmte Reste Verwertung ist.
Stellt sich halt wirklich die Frage, ob das noch ein relevantes Segment ist. Viele Indiegames bzw. Games wie League of Legends laufen auf APUs, wer etwas mehr will, der greift dann oft zur Konsole. Im Ausland noch viel mehr als bei uns. Zum PC greifen eher die Enthusiasten, die mehr Leistung wollen.
Aber ich sehe das dennoch nicht so schwarz wie so manch anderer hier
Ich bin guter Dinge, dass die plattformübergreifende Spieleentwicklung immer weniger aufwendig wird und damit der PC auch weiterhin gut bedient wird. Dass Sony ihre Exklusivstrategie aufgegeben hat und Spiele für PC erscheinen zeigt ja, dass der PC Markt nicht irrelevant ist.
genau take my money and shut up!^^
Das haben einige Kollegen auch gedacht....aber dann doch für sich entschieden sie kaufen die Hardware zum Zocken und nicht um die Schnellsten zu sein, dafür gibs Karren im RL (rede ich mir auch permanent ein, um nvidia nicht meine Kohle in den Rachen zu werfen und es fällt mir echt schwer..)
Trotzdem viel Spass mit dem Hedwig!
Jeder kann sich selbst vorstellen was das eine kann und das andere konnte.
Ich finde die neuen Preise des 2030er Jahrzehnts nichts besonderes.
Nur die Ansprüche sind heutzutage zu hoch für de normalen Geldbeutel.
2010 hat auch keiner auf FHD die neusten Grafikbrüller mit 100FPS auf Ultramax gespielt.
Nur die Ansprüche sind heutzutage zu hoch für de normalen Geldbeutel.
2010 hat auch keiner auf FHD die neusten Grafikbrüller mit 100FPS auf Ultramax gespielt.
Warum werden immer die 30 Jahre alten Geschichten von den teuren PCs aufgewärmt um diese Abzocke zu rechtfertigen? Der Rückblick auf die letzten paar Generationen sollte einem doch die Augen öffnen:
Ich habe das ganze lange nicht verfolgt, aber ist denn die Maus-/Tastatursteuerung bei den Konsolen jetzt ein offizielles Eingabemedium? Es gab doch lange Zeit da Diskussionen bzgl. M/K Spieler vs Controller Spieler und dass eigentlich nur der Controller das gewünschte Eingabemedium bleiben soll. Wie gesagt, ernst gemeinte Frage, da ich die Diskussion lange nicht verfolgt habe.
Jaein, offiziell nur in supporteten Games.
Ich rede hier von eigenen Workarounds wie z.B. XIM Apex (inkl. Beloader - für RemotePlay) oder via PC (z.B. hier die 10 Euro Software Replay nutzen o.ä.) gibt viele flexible Möglichkeiten eigentlich alles mit M/T zu spielen, ein wenig Technikaffin sollte man aber sein.
Wobei man fairerweise sagen muss, dass die meisten First-Party Titel von Sony direkt die Eingabe via Gyro unterstützen und man dann keine M/T mehr braucht, weil mit Gyro das Zielen nahezu Mauslike ist.
Selbst der Ultra Schrott ERTEEX 3050 (nicht wirklich RT-tauglich) kostet locker über 300-350€ und liefert unterirdische Performance auch ohne REYTÄCCCING. Eine absolute Frechheit und das funktioniert nur, weil viele sich nicht unter Kontrolle haben und CB Geld und Geschenke für Propaganda bekommt.. Einfach einmal alle zusammenhalten und wir alle werden spätestens nach einem Jahr mit humanen Preisen belohnt.
Nun um das Gedächtnis aufzufrischen
in den 90ern war ich noch teenie und hatte keine minute an Pc verschwendet meine erste begenung mit games hatte ich mit dem gameboy tetris und später sega game gear sonic the hedgedog yowie mario super bro auf nes
Das wren zeiten Super mario bro innerhalb zwei stunden durch
sonic innerhalt ner halbe stunde
Erste eigene games hatte ch erst mit 20 und einer playstation
Die Zeiten wo ich resident evil und dino crisis besaß.
Das erste spiel war colin mcrae rally.
PC kamen erst als man für internet endlich kein vermögen brauchte und die hardware erschwinglich wurde so um 2006 rum also pünktlioch zu dx10 einfühgrung
erste gpu war ne geforce 6600 folgend 8800gts 320mb
noch lebend 9800gtx+ ~2009 rum
Was preise angeht es war schon immer so das ein high end gab aber die zeit wie lange das so blieb hat sich deutlich verlängert.
Von 1990 bis 2000 war quasi im 3 Monatstakt was neues da. da gab es auch mehr als nur 2 chiphersteller
Die Pioniere 3dfx ati nvidia cynix via
Davon über ist nur noch ati in amd group und nvidia
Das dadurch die chipdesigns deutlich mehr zeit brauchen ist klar dazu kommt das die fertigung nicht mehr im 6 monats zyklus sich verkleinert wie bis 2010
Aktuell ist man bei etwa realen 30nm gate to gate abstand kleiner wird es definitiv nicht mehr da die physik dagegen spricht aber chips gehen in den 3d aufbau über.
ja chips werden noch in 2d produziert
tsmc n3 wird erstmals gaa unterstützen was die chips um maximal 20% kleiner macht als n5
Und n2 wird aufgestockt in 3d
n3 kommt q1 2023 in Massenproduktion
n2 kommt in q1 2024 in testsamples und frühestens q2 2025 in Massenfertigung
erste designs mit gpu bzw cpu erst 2026
Dazu kommt ab 2027 eine Änderung des transistors diese wird deutlich an energieeffizienter bzw erreicht mehr als 8ghz in x86
ihr merkt es wird immer was besseres geben und das wird high end immer etwas teurer sein, nur wird der trend mehr Leistung für mehr geld nicht bestehen bleiben.
Die aktuelle situation ist rein vom mining entstanden. Das wird vergehen. Aktuell haben alle chiphersteller zu viel produziert das muss sich erst abbauen und danach wird wieder normal werden
Das hohe Preisniveau verdanken wir also der gier von paar Leuten
Allerdings sehe ich bei low end gpu keine chance mehr die billigste gpu wird defintiv ab 300€ sein selbst mit n2 node in 3d Bauweise. Vermutlicher preis etwa 49k$ pro wafer.
Zur Erinnerung ein 06er chip etwa 50mm² 54sm gleiche arch blackwell etwa 3,0ghz =28tf etwa 40$ pro chip
Das problem aber das ist 2027 und die Anforderungen werden auf min 40tf liegen
ja es wird extrem werden die ps6 wird min 40tf erreichen da die ps5 pro schon bei 17tf kommt. und das dieses Jahr.
Kann man sich kaum vorstellen aber es wird so kommen.
Der Grund warum nun am Pc wird durch oled quasi 2160p zum standard da entweder mini led oder oled nicht unter 2160p geben wird.
Und 4k hat die 4 fache Anforderung zu aktuell und da sind die 37tf der rtx4080 gerade ausreichend für 80fps in 4k.
Was mich zum gb104 bringt der wird 18 sm pro gpc haben und davon 6 = 108sm bei etwa 3,0ghz = 57tf
Das entspricht dem ad102 mit 128sm
Und das auf etwa 236mm²
Da aber der chip nie voll aktiv ist nehme ich wieder an 6 gpc zu je 17sm maximal 102sm aktiv minimal 16 also 96sm
Und das ist erst 2024 für mid class
2026 mit Nachfolger von blackwell sehe ich sogar nochmal deutliche Steigerungen wenn 3d staking kommt auf nochmal halber chipfläche hin.
Als 06er chip dann 118mm² gleiche sm für 400€ oder volle blackwell gb103 mit 10 gpc zu je 18sm=180sm bei 305mm² maximal 180*88*2*3=95tf als 04er chip
Wie vorher 17 oder 16sm pro gpc dann 89tf oder 84tf
Der Voll Ausbau sehe ich bei 12gpc mit 216sm was dann 114tf wären 107tf oder 101tf mimimal
Wir sind bei 63tf
Und schon jetzt im cpu limit auf 1440p daher wird es anders nicht gehen als auf 2160p als normal zu sehen ich sehe 27 zoll displays mit miniled auf ips standard kommen für etwa 200€ monitore
Das wird den gleichen Effekt haben wie 2010 rum bei 1080p zuvor hatte jeder nen display unter 1050p oder 4:3
1080p war teuer damals um die 400€ erst als monitore bei 150€ für 1080p waren was so 2010 rum begann schwing das um.
Aktuell sind 1080p monitore noch der standard bald wird es sofort 2160p werden. ich nehme an das ab 2025 beginnt.
1440p wird sich auf Dauer nicht durchsetzen da die tv Produktion Vorrang hat.
Von denen stammt auch 1080p ab, 1200p war zuvor das high end bis 2010 und wurde bis zuletzt als high end angesehen und auch kaum genutzt
Daran bemessen sich Anforderungen und wir kennen diese bei 2160p unter 20tf sieht man da kein land.
So wird es aussehen ab 2024
rtx5050 20tf mit gb107 2 gpx 36sm min 17tf +55% vs ad107 4k untauglich
rtx5060 38tf mit gb106 4 gpc 72sm min 33tf +94% vs ad106 bedingt tauglich 4k
rtx5070 57tf mit gb104 6 gpc 108sm min 50tf +72% vs ad104 geht klar 4k
rtx5080 78tf mit gb103 8gpc 144sm min 67tf +81% vs ad103
rtx5090 95tf mit gb102 10 gpc 180sm min 84tf +33% vs ad102
Zum vergleich aktuelle Mittelklasse bzw low end ist 9tf rx6600 rtx3060 also ps5
ps5 pro vermutlich n33 2048 alu maxed 17tf als refresh 2023 oder 2024 in 5nm dann 20tf
ja der sprung von 1080p zu 2160p dauerte länger das wird allerdings von den tv Herstellern bestimmt.
Tv ab 3840-2160p sind aktuell ab 500€ erhältlich 2024 an wird das ab 200€
Und genau zu dem Zeitpunkt wechseln viele darauf um, monitore folgen dann kurz danach
Was mich zu mini led und ips oder oled ab 300€ bringt
Diese Entwicklung ist nicht zufällig sondern geplant.
Für mich steht als nächstes erstmal gpu an was ne rtx5060 wird nach derzeitigen sku Plänen von nvidia
Der Übergang könnte ne rtx4060 sein wenn mehr als 8gb vram wären aber danach sieht es nicht aus.
Und da die rtx4060 maxed 30sm haben wird und nur 8gb an einen 128bit bus wird diese maximal + 30% sein was sich nicht lohnt vs rtx3060
Bliebe nur amd n33 rx7600 und da sehe ich keine chance das die schneller in dxr ist als die rtx3060
Nehme ich die Pläne vom TV Herstellern ernst wird ab 2025 ein problem werden
Wir werden sehen inwieweit upscaling das abfedern kann.
TV Hersteller LG Sony Samsung respektive display Hersteller au optics und co.
wie war das mit immer teurer werdende GPU's
ein ad106 chip kostet etwa 48$ ein gb106 chip kostet etwa 65$
nvidia wird sicherlich auf n2 3d packaging abwarten um blackwell zu fertigen was dann die chipfläche halbiert.
Folglich sehen wir nen refresh von ada in n4 mit gddr7 2024
n4 kostet etwa 21k $ pro wafer 60$ chip in low end deutlich
ich bin gespannt ob nvidia plan mit günstigere chip für deutlich höhere preise zu verkaufen aufgeht.
sku wäre dann ~450€
sku hat dann 36sm zu je 88fp32 mal 3,0ghz =19f mit 128bit gddr7 32gbps also 512gb/s 16gb.
Für dann etwa 1440p gerade ausreichend und das muss schon 2023 also dieses Jahr kommen.
Die chance ist da da gddr7 bereit ist ab q2 2023 aber ich ahne das dies q2 2024 wird.
Was kommen wird ist ad104 mit 46sm (~22tf) als rtx4070 mit gddr6 18gbps an 192bit 432gb/s als 70er Modell ne Frechheit da dies gerade mal für 1080p ausreicht
Aktuell hängt jetzt alles von amd plan ab wie man n32 und n33 vermarkten wird Die laptops Andeutung sagt klar Preiskampf aber auch das amd sheduler Probleme hat die 4 Operationen pro cu auszuführen
ich gehe von min 25% aus von 2 operation + 2 Operatioen also 2,5 und maxed bei 50% also 3 Operationen in Monolithen der n31 kann nur 2,34 Operationen pro cu.
Und daran wird sich alsbald nix ändern es soll aber ein hardware refresh geben der deutlich höher Takten wird und mit gddr7 kommen was die 2,5 fache Auslastung garantiert.
Ob amd dann auch zeitgleich n32 bringt ist unklar.
Daraum wird dann
rx7600xtx 2048alu bei 2,5 2,8ghz=14,3tf bis 17tf ps5 pro Niveau, dxr auf level der rtx3060ti 350€
rx7600xt 1792 alu bei 2,5 2,8ghz =12,5tf bis 15tf dxr auf level der rtx3060 250€
vs rtx4050 ad107 24sm 11,8tf 256gb/s 8gb dxr auf level der rtx3060 350€
und rtx4060 ad106 30s m 14,7tf 256gb/s 8gb 450€ dxr auf level der rtx3070 (30rt cores)
Ja, das zeigt eben, daß Neuerscheinungen bei Leistung von sogenannten "Gaming-PCs" keine Rolle mehr spielen, Man nimmt jetzt irgendwelche Uralttitel, meinetwegen auch Witcher 3, die dann in Version 4.0 128 Rays pro Probe nachgerüstet bekommen, um möglichst viel elektrische Energie auf High-End-GPUs zu verheizen.
Solche und ähnliche Aussagen sowie Diskussionen waren spätestens, nachdem 3dfx seine Karten auf den Markt geschmissen hat, und PC-Gaming endgültig zum Mainstream wurde, Alltag. Zu heiß, zu hoher Stromverbrauch, eigene Stromversorgung, irre, warum, weshalb, wieso, 3dfx versus ati versus nvidia versus ab wann welches Game keine Ruckel-Orgie ist. Nebst den gefühlt 1000 PC- und Video-Gaming-Heften Land auf und Land ab in denen dann auch der Verbrauch immer mehr zum Thema wurde.
Wechsler schrieb:
Es gab mal Zeiten, da war Spieleprogrammierung das maximal möglich aus der seinerzeit noch beschränkten Hardware herauszuholen. Bei dem sog. "Hobby Gaming-PC" passiert aber inzwischen genau das Gegenteil.
Guess why.
Was damals Mad Onions Benchmark auf einfache Art verdeutlichte: Wozu die eigene Windows-PC-Hardware fähig ist oder sein wird wenn. Von unspielbar für den der verstehen will was der Unterschied zwischen "Computer" und "Highend-PC" bzw "Gaming-PC" ist, letztlich für Kenner und Enthusiasten +15FPS, +30FPS, +50FPS und vielleicht auch mehr "Benchmark-Stable und Game-Stable" raus zu kitzeln.
Heute jammern die wenigsten Gamer über die damals nicht ganz so unbekannte 30FPS-Grenze. Was damals Luxus war ist heute Dekadenz in 4K. Und wenn das erst einmal 0815 ist 8K.
Wechsler schrieb:
Wenn das so ein riesen Problem sein soll, dann kommt es eben auch in die nächste EU-Richtlinie rein. Dann bekommst du eben deine Maus und Tastatur per Accessibility-Verordnung für Menschen mit Behinderung.
Dem Rest der Welt ist das Thema nicht weniger bekannt. Nur weil wir die Thematik hier in einem von 1000en Threads angesprochen haben bedeutet das nicht, dass das nicht bereits seit spätestens den 1970ern ausführlich besprochen wurde weil bereits von etlichen Wissenschaftlern Jahrzehnte zuvor bereits bekannt. Das "endlich mal was tun" und "aber die anderen auch" sind uralt. Sowie der Whataboutism dazu.
Enyo79 schrieb:
Unsinnige Vergleich.
Der Audi ist wirklich purer Luxus und solche Autos waren immer sehr teuer.
Was diese Aussage auf den Punkt bringt: Grafikkarten bzw. Gaming-Grafikkarten "sind Luxus".
Ich vermute du meinst dass das Preisgefüge unverhältnismäßig erscheint. Dem würden vermutlich die meisten zustimmen.
Wechsler schrieb:
Gemeint sind PCIe-Steckkarten und die sind im Massenmarkt bereits tot, die Herstellung ist unwirtschaftlich und wurde bereits zum Mining-Boom hin eingestellt.
Wenn wir uns den Gesamtmarkt betrachten würde ich sagen: Grafikkarten der letzten 4 Generationen haben ausreichend Performance für so gut jedes Spiel. So gesehen stagniert die Thematik "ausreichend Leistung für Gaming in FHD" und wird allein durch 4K, 5K, 8K, 16K, RT, AI usw. getrieben. Welches für reines Gaming allein verzichtbar ist. Der produktive Gebrauch mal ausgeschlossen.
Zieht man den produktiven Gebrauch hinzu wird klar: PCIe-Steckkarten werden auch in Zukunft vorhanden sein. Und zwar in jeglicher Form. Allein deshalb weil "kein Hersteller auf dieser Welt" ein Mainboard "mit allen möglichen Schnittstellen und Möglichkeiten" auf den Markt bringen wird. Dafür gibt es, wenn überhaupt, einen verschwindend kleinen bis nicht vorhandenen Use-Case. Den meisten Gamern/Usern reicht ein solides Mainboard im Preisbereich der üblichen 100€ bis 200€. Reine Gaming-Kisten beschränken sich auch gerne mal nur auf ITX.
Wechsler schrieb:
Und bevor jetzt wieder irgendwer so tut, als seien jetzt 900 € der Massenmarkt und der Gebrauchthandel gehöre zum offiziellen Angebot: Man kann auch nicht so tun, als seien 900 € jetzt normal für PC-Komponenten, denn es kostet jetzt auch ein RAM-Riegel keine 900 € oder eine SSD. Beides kann man übrigens in Notebooks verbauen, weshalb dort auch die Preise normal sind und für 900 € bekommt man ja schon komplette Notebooks inklusive GPU, denn dort ist jetzt der Massenmarkt.
"Der Massenmarkt" weil Gaming in der Gesamtheit betrachtet noch nie "der Massenmarkt" war. Es sei denn irgend jemand will behaupten sämtliche Büro-Rechner/Server dieser Welt sind (nur) zum Gamen da.
Wechsler schrieb:
Für Notebooks gibt es übrigens eine komplett eigene Serie an GPUs, die man über MXM-Adapter auch in Desktop-PCs verbauen könnte. Aber eben nicht außerhalb Chinas, das ist eben nicht gewollt. Also gibt es für Desktops nur noch als Grafikbeschleuniger zweckentfremdete Compute-Steckkarten mit Monitoranschlüssen, die fast oder deutlich vierstellig kosten. Aber keiner kann so tun, als sei das nicht komplettes Freak-Spielzeug.
Die Hürden hierbei sind: Preis, Verfügbarkeit und Auswahl. Weniger die asiatischen Länder selbst. Gerade von dort kommen unzählig viele Varianten von Erweiterungskarten.
Und: Platinen werden auch weiterhin hergestellt. Grob betrachtet ist das Mainboard nichts anderes als eine Erweiterungskarte. Eine Platine in der nur eine bestimmte Generation CPU von Hersteller X sowie Variante RAM Platz finden bis diese EOL sind weil den Herstellern die Lust ausgeht. Solange es dazu keine Alternativen gibt wird solange produziert bis wir im Müll ersticken. Die Lösung muss also eine andere sein. Und nein: Cloud ist keine Lösung.
Performator schrieb:
Wird dem PC wohl wie den Dinos ergehen.
Ca. 1000W incl. Monitor aus der Steckdose zu verheizen ist im Winter ja noch akzeptabel,
um die Erdgasreserve zu schonen, aber im Sommer....
Bis sämtlicher PC-Restmüll historisch gepresst in Schiefer- oder Kalkstein auftaucht werden allerdings einige tausende Jahre vergehen. Was an dem unverhältnismäßigen Use-Case eines 1000W-Gaming-PCs nichts ändert.
Wechsler schrieb:
Ein TDP-limitierter Chip wird ineffizienter. Er hat eine zu große Fläche für die Leistung, die ihm abgefordert wird. Im TDP-Limit können die Compute-Einheiten nicht mit optimalen FLOPS/W rechnen. Außerdem bezahlt man zuviel für die nun überflüssige Waferfläche.
Es ist also unsinnig, eine GPU mit einem viel zu großen Chip zu kaufen, um sie dann ins Power-Limit zu legen. Ist so sinnvoll wie mit einem 600PS-Mobil zum Brötchenholen zu fahren.
Richtig. Nur nicht wenn man mit 4K ist das neue FHD argumentiert. Die Rechnung geht eben wie auch zuvor bei FHD nur dann auf wenn ausreichend effiziente Hardware mit wenig Stromverbrauch vorhanden ist. 4K kommt dort gerade erst ansatzweise an wo FHD schon seit langem ist.
Wechsler schrieb:
Statt dessen ist einfach sinnvoller, eine Notebook-GPU zu erwerben. Die gibt es nur unter 150 W.
Ergänzung ()
Das ist aber nicht, was mal Mainstream im Desktop war. Das waren so ca. 200-400 W.
Netzteile, ja. Den Gesamtverbrauch betreffend ingame, ja. Was zum Glück nicht der Standard ist und der geringe Gesamtstromverbrauch im Desktop auch gerne locker unter 20 Watt liegt. Alles jenseits der 200W liegt ist eigentlich eine Ausnahme bzw. vermarktete Machbarkeitsstudie die damals wie heute recht sinnbefreit bis absurd ist. Gaming unter 200W ist schon lange möglich.
Früher: Hoher Verbrauch weil es so gut wie nicht möglich war. Allein die bessere Röhre etwa 100W (oder mehr) ohne Mehrwert verbraten hat (Anmerkung: "Die Aura" damaliger mit CRT-Monitoren voll gestopfter Computer-Räume und LAN-Sessions gibt es so heutzutage nicht mehr). Heute: Weil man nicht will.
Wechsler schrieb:
Die Marken oberhalb von 500W waren für Freaks. Und genau die sind jetzt übrig geblieben, während die meisten Otto-Normal-Anwender mit inzwischen Notebook-Netzteilen unterhalb der USB-C Power-Delivery-Spezifikation (20V, 5A, 100 W) hinkommen.
Sehe ich komplett anders! Meistens ist die TDP nur so hoch, damit man den längsten Balken im Benchmark bekommt. Die Effizienz ist bei weniger Watt höher!
Nehmen wir die 4080. Hat eine TDP von 320 Watt und liefert da 100% an Leistung. Setzt man sie auf 250 Watt, hat man immer noch über 95% der Leistung, aber eben nur noch 80% Stromverbrauch. Entsprechend ist die Effizienz massiv besser geworden!
Betrachtet mit den sinnlosen Mehrverbrauch ist das absolut richtig. Weil die meisten Karten bereits (beschnitten) an bzw. über der Kotzgrenze laufen. Und weil Blingbling halt Blingbling ist.
Wechsler schrieb:
PC-Daddelei ist durch Schwemme günstiger Klonhardware aus Taiwan über Nacht richtig günstig geworden. Den ganzen heutigen "High-End"-Schwachsinn gab es im "PC-Gaming" schlicht überhaupt nicht.
Für id Software's frisch neu erfundenen 3D-FPS "DOOM" reichte eine billige Taiwain-VGA (< $100) auf einem gelöteten Noname-486 mit VIA-Chipsatz (Mainboard inkl. CPU < $100) völlig aus. Mehr als 8Bit 320x200@35 fps konnte die Engine nämlich eh nicht. Und mehr als 4 MB 70ns-DRAM brauchte es dafür auch nicht.
Was du gerade versuchst, herbei zu konstruierten, existierte schlicht nicht.
Nur weil "der geordnete Aufrüstwahn für Windows-Computer (IBM)" damals noch in den Anfängen steckte, es mehr Büro-Hardware als "Gaming-Hardware" war, heißt das nicht, dass es so etwas "damals" nicht gab. "Damals" tauschte man eher von alt nach neu weil die Auswahl als auch der Performancegewinn mal mehr mal weniger überschaubar waren und die Grenzen durch OC recht schnell ausgelotet (wenn auch langsam). High-End fing mit der Vermarktung der CPUs einer Generation in verschiedenen MHz-Klassen an. Und kam spätestens dann im Gaming-Mainstream an als der Übertaktungsknopf am PC schon wieder ausgestorben und die Auswahl an Eingabegeräten auf dem Markt bereits explodiert war, Creative, terratec und Co Gaming-Soundkarten verkauften. Und hatte etwa seine Sternenstunde als Razer mit der Boomslang den Markt eroberte und viele weitere Produkte Ihre Wege fanden. Overclocking ist weiterhin Overclocking. Und der Markt wird weiterhin mit Hardware geflutet. High-End ist heutzutage etwas anderes als damals. Performance ist günstiger als zuvor zu haben. Dagegen scheint mir die Dekadenz ausgeprägter wie niemals zuvor.
Laphonso schrieb:
Es gab einen Aufschrei bei den iterativ explodierenden Hardware Anforderungen mancher Titel.
Es gab Sonderartikel in der ASM, Power Play und Co.
Richtig. Gerade im Bereich der Simulationen, weil 3D immer anspruchsvoller wurde und Monochrom-Bildschirme bereits vergessen waren. Mit dem Unterschied zu heute dass es damals keine reine Windows-PC-Zeitschriften waren.
Eine 6600 ist wieder auf 320€ gestiegen, die 3050 kostet immer noch mindestens 290€. Die 3060 ist für mich der Einstieg für eine Zocker Kiste. Die liegt im Vergleich mit ab 334€ sogar in einem teuren guten Verhältnis.
Mit den beiden neuen Gens wird der Einstieg sich wohl bei ab 400€ einstellen.
rechne mal 100 mehr drauf, also für eine 4060 (nonTi) wird da nix unter 500 gehen, denke ich
die 4060 Ti werden die dann für 600 verkaufen und die 4070 dann für 800
Sagt auch keiner dass du das musst, es scheint jedoch so, als ob alle die offen davon erzählen dass sie soooo viel Geld haben gleichzeitig am Meisten über Preise mosern.
Lern bitte richtig lesen und schau dir meine Beiträge an - ich kaufe was ich will und wann ich will. Der Rest geht in Immobilien, Gold, Aktien oder Fonds. Nur denke ich vorher selber nach, ob das Produkt auch zum vorgesehenen Anwendungsfall passt.
ThirdLife schrieb:
Und klar, wer jetzt schon gut ausgestattet ist braucht gar nix holen - dann kann man aber das Gemoser über Preise auch langsam sein lassen - man braucht und will ja nicht. Ich renn auch nicht ins Porsche Forum und vor die Firmengebäude und brülle rum dass ich das nicht brauch und alles viel zu teuer ist.
Lern bitte richtig lesen und schau dir meine Beiträge an - ich brülle niemanden an, ich kaufe oder eben nicht. So auch eine 4090, eine 4080 und eine 4070ti. (ja genau, du Held, habe ich gekauft)
ThirdLife schrieb:
Vielleicht sollten dann die Arbeitgeber mancher Leute hier auch so reagieren. Schön a la Musk die Arbeitszeit verdoppeln und das Gehalt halbieren, mehr für weniger. Ist ja auch die Erwartung der Leute hier. 🤷♂️
Dann mach den Anfang und frag deinen Chef bitte, wann er dir endlich das Gehalt kürzt und dich mehr arbeiten lasst. Dann haben Forenmitglieder, über die du einen Scheiß weißt, Ruhe vor deinen falschen Annahmen.
ThirdLife schrieb:
Die Analyse dahinter würde ich gern verstehen. Ein Jahr Lebenszeit 200€ wert. Da bist du echt billig zu haben.
Lern bitte richtig lesen und schau dir meine Beiträge an - Analysen, die ich für jede meiner Anschaffungen tätige, machen mir sogar Spaß stell dir vor, denn ich mache sowas auch beruflich und es geht mir schnell von der Hand, weil ich nicht so wie manch anderer einfach nur eine große Fresse habe, sondern da auch was dahinter steckt.
Und wenn du nicht wahrhaben willst, dass es Leute gibt, die (egal was) nicht einfach blind kaufen, obwohl sie spielend könnten, ist das zwar deine (unwichtige) Meinung, wird deswegen aber noch lange nicht zur Wahrheit. Auch dann nicht, wenn du deinen Unmut darüber mit überheblicher Polemik, komplett falschen Rückschlüssen und Provokation vorträgst... 😘
Für mich hörte sie da auf
Zuvor mit Atari 2600 und später mit Sega Mega Drive gezockt.
Die Playstation (ohne Nummer) war meine letzte Konsole.
Nachdem ich aus beruflichen Gründen einen PC angeschafft hatte, wurde ab da auf PC gezockt.
Und seit nun 10 Jahren gibt es eh kein zurück mehr, da Simracing auf Konsolen nur eingeschränkt möglich ist.
Artikel-Update: Auch einige Tage nach dem Verkaufsstart der GeForce RTX 4070 Ti ist die dritte Gaming-Grafikkarte auf Basis von Nvidia Ada Lovelace gut und durchaus auch zum UVP von rund 900 Euro verfügbar, beispielsweise in Form der Inno3D GeForce RTX 4070 Ti X3 oder der Palit GeForce RTX 4070 Ti GameRock Classic. Wie es indes bei der bereits im November in den Handel entlassenen, teureren und ebenso leistungsstärkeren GeForce RTX 4080 aussieht thematisiert ein Update der entsprechenden Meldung. Dort ist auch eine erneute Umfrage zum Status Quo des Interesses der Community an den Next-Gen-Grafikkarten zu finden.
Die Frage nach der Attraktivität der einzelnen Karten ist mMn falsch gestellt.
Geht es rein um die technische Umsetzung, so sind RTX 4090 und RTX 4080 wohl durchaus als sehr attraktiv zu bezeichnen.
Allerdings sind die Preise der Karten durch die Bank weg vollkommen überzogen, weshalb sich aus reiner Käufersicht für mich keinerlei Attraktivität für irgendeine dieser Karten ergibt.
Tja, was kreuze ich in der Umfrage denn nun an?
Eine Antwortoption, die den hohen Preispunkt inkludiert, wäre hier nötig und sinnvoll gewesen.
Mit welchen 5 GPUs für unter 200 € konnte man denn 2017/2018 besser zocken als auf der PS4 Pro?
Mit welchen 5 GPUs für unter 200 € konnte man denn 2014/2015 besser zocken als auf der PS4?
Mit welchen 5 GPUs für unter 200 € konnte man denn 2007/2008 besser zocken als auf der PS3?
Habe meine 4070 Ti endlich bekommen und bin eigentlich begeistert. In den meisten Fällen ist der Verbrauch im Vergleich zu einer 3070 um 50% gesunken! Das hätte ich nicht für möglich gehalten.
Wenn sie mal gefordert wird, z.B. Portal RTX, dann verbraucht sie natürlich mehr als die 3070 aber dafür sind meine FPS von 25 auf 75 gestiegen. Also von mehr oder weniger unspielbar auf absolut flüssig.
Trotzdem ist die Karte keine 900€ wert. 800€ könnte ich noch argumentieren mit Inflation blah im Vergleich zu einer 3070 Ti (die was, 650€ gekostet hat?). Die teuren Modelle lohnen sich bei der 4070 Ti überhaupt nicht meiner Meinung nach und ob die 899€ Modelle noch einmal produziert werden nach der ursprünglichen Charge glaube ich kaum. Aktuell sind die ja fast überall bis auf das Inno3D Modell ausverkauft.
Trotzdem, mir spart die Karte so einiges an Strom, das finde ich gut. Jetzt mal gucken wie viel ich für die 3070 noch bekommen könnte - aber selbst dann ist das Upgrade teuer.