Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGeForce RTX 3000: Deutlich mehr Grafikspeicher kündigt sich an
3D Center hat einen neuen Artikel (natürlich alles nur Gerüchte), das es wohl auf 60% Mehrleistung bei Ampere rauskommen soll und die 35% nur verfälschte Werte waren weil die Karte so schnell ist, dass sie bei den Benchmarks in einer niedrigeren Auflösung als 4K im CPU-Limit kleben.
Und weiter geht es mit dem Marketing Blablubb... 😜
Klar schaut das besser aus mit RT als ohne! Manch einer würde sagen "etwas" besser, andere empfinden vlt eine deutliche Verbesserung. Aber diese euphorische Lobhudelei ist halt maßlos übertrieben.
Klingt mehr so als hätte jemand das Rad neu erfunden
Weil ich es hier schon mehrfach gelesen habe: gab oder gibt es das überhaupt, dass Boardpartner andere RAM-Mengen verbauen als die Chiphersteller vorgeben? Das würde doch die ganze Produktplatzierungen von Nvidia/AMD komplett durcheinander bringen? Ich dachte bisher, dass sich die Partner nur duch die Taktfrequenzen von einander absetzen.
Nein, natürlich nicht. Wahrscheinlich ist es auch der, zumindest aus damaliger Sicht, immer kleiner werdenen Chip-Struktur zu verdanken gewesen, dass die Chips nicht so stark im Preis gestiegen sind. Mooresches Gesetz findet irgendwann halt ein physikalisches Ende, vorher ein technisch realisierbares. Und da sind wir im Moment wohl angelangt: Bei gleicher Technik (im Sinne von der aktuellen, ohne was wirklich Neues) kann man aus einem Waver halt nicht noch mehr rausholen. Wenn man z. B. früher 100 und 2 Jahre später 400 Chips mit ähnlichen Herstellungskosten bekommen hat (rein fiktive Zahlen), dann wirkt sich das auf die Produktionskosten und letztendlich auch auf die Marktpreis aus. Wenn man die Anzahl nicht mehr (groß) steigern kann, nur noch IPC-Optimierungen oder andere Dinge anpassen kann, dann bleiben die Kosten eben gleich oder steigen (Inflationsbedingt, aber auch was Rohstoffkosten angeht).
Klar schaut das besser aus mit RT als ohne! Manch einer würde sagen "etwas" besser, andere empfinden vlt eine deutliche Verbesserung. Aber diese euphorische Lobhudelei ist halt maßlos übertrieben.
Kommt halt auch immer sehr stark auf die Implementierung an. Manche Spiele übertreiben es und lassen Flächen spiegeln, die überhaupt nicht spiegeln sollten, oder lassen Spiegelungen viel zu stark auftreten. Bei manchen Spielen fällt der Unterschied nur wenig auf, weil es einfach nicht viel gibt wo RTX zur Anwendung kommt (oder es nur sehr punktuell auftritt). Und bei manchen ist eben wirklich ein riesiger Unterschied da.
3D Center hat einen neuen Artikel (natürlich alles nur Gerüchte), das es wohl auf 60% Mehrleistung bei Ampere rauskommen soll und die 35% nur verfälschte Werte waren weil die Karte so schnell ist, dass sie bei den Benchmarks in einer niedrigeren Auflösung als 4K im CPU-Limit kleben.
Stand bei Igor nicht was von es gibt noch überhaupt keine Treiber die mehr außer Nvidia interne Programme laufen lassen?
Demnach kann es noch keinen bench geben, einfach weil es keinen Treiber gibt.
„ Um Benchmark-Leaks vorzubeugen, hat NVIDIA diesmal auch die Evaluation-Treiber komplett abgeschottet. Es laufen wohl noch nicht einmal mehr Furmark, geschweige denn Time Spy, sondern nur NVPunish (ein Stresstest-Programm) für die Thermal-Tests. Deshalb sollte man alle bisher geleakten Benchmark-Ergebnisse mit absoluter Vorsicht betrachten. Auch aus Sicht eines Boardpartners ist es natürlich schon merkwürdig, wenn man etwas herstellt, von dem man noch nicht einmal weiß, wie schnell es am Ende sein wird“
Ich finde 8-10 GB VRam waren vollkommen in Ordnung, in Anbetracht der neuen Konsolengeneration bekomme ich allerdings leichte Bauchschmerzen, denn zum Einen kommen die Next-Gen Konsolen mit 16 GB GDDR6 (unified) Ram, was abzüglich OS und 30% als normalen RAM GESCHÄTZT 9-10 GB für Xbox One X und bis zu 11 GB "VRam" für die PS5 bedeuten könnte.
Und wenn man sich eine Grafikkarte für ~1000€ kauft, dann sollte man sich doch wirklich nicht um ca. 2 GB Ram Gedanken machen müssen.
Natürlich ist das alles nur Theorie und eventuell steigt VRAM-Consumption trotz der neuen Konsolengeneration nur wenig, allerdings gibt es am PC auch viele mittelmäßige Portierung welche zusätzliche Probleme verursachen können (siehe Horizon Zero Dawn).
Ich verweise an dieser Stelle auch gerne auf diese sehr interessante Aufstellung: https://wccftech.com/nvidia-geforce-gpu-generational-performance-per-dollar-gains-visualized/
Vor 12 Jahren: 9800GT für ~200$ Performance Faktor 1
Aktuell: RTX2060 für ~350$ Performance Faktor 7
D.h.: Nach 12 Jahren haben wir für das ca. 1,75x so viel Geld knapp 7x so viel Leistung. Imho nicht schlecht
Finde den Vergleich ziemlich komisch um ehrlich zu sein. Leistung steigt natürlich mit jeder Generation an, das ist quasi selbstverständlich, dass der Preis ansteigt hingegen nicht. Eine Geforce 3 hat damals auch 999DM gekostet als sie auf den Markt kam, die Radeon 5870 hatte ein vielfaches der Leistung und hat um die 400€ gekostet, also weniger trotz höherer Leistung und mehr/neuerer Features und beide waren das jeweilige Leistungsflagschiff zum Release.
Der Preis sollte eigentlich nur dann steigen wenn die Kosten für Entwicklung und Herstellung es rechtfertigen können und auch nur dann wenn man andere Faktoren wie Absatzzahlen berücksichtigt hat. Man sollte schließlich nicht vergessen dass Gaming heute einen ganz anderen Stellenwert hat als noch vor 10-15 Jahren und sich das natürlich auch massiv auf die Absatzzahlen von GPUs ausgewirkt hat.
Die heutigen Preise für GPUs finde ich schon echt ziemlich gesalzen und wenn das tatsächlich noch weiter nach oben gehen sollte wäre das für mich ziemlich besorgniserregend, denn dann sind wir wirklich bald bei Mittelklasse Karten für 500€ angekommen. Ich hoffe daher dass zumindest die schon echt hohen Preise der 2000er Serie nicht noch überboten werden, gerade auch weil Ampere ja was die Dx12/Vulkan Features angeht keine Neuerungen bringen wird und "nur" gleichauf mit Turing ist (bitte korrigieren falls ich mich irre).
Hui, das freut natürlich. Hoffe aber mal dass die Preise nicht noch weiter hoch gehen, ich würde sehr gerne upgraden und auch gerne auf eines der Top-Modelle, aber wenn die 3090 dann 1499 kostet und die 3080 1299, dann konnen Sie die echt behalten. 999 für die 3080 und 1199 für die 3090 fände ich schon heftig genug.
3D Center hat einen neuen Artikel (natürlich alles nur Gerüchte), das es wohl auf 60% Mehrleistung bei Ampere rauskommen soll und die 35% nur verfälschte Werte waren weil die Karte so schnell ist, dass sie bei den Benchmarks in einer niedrigeren Auflösung als 4K im CPU-Limit kleben.
Du spielst hier mit unseren Emotionen, ich hoffe, dir ist das klar!
60% wären natürlich ein Traum und sind ehrlich gesagt auch in meinen Augen realistischer.
Ich meine, Ampere soll bis zu 350 Watt brauchen. Wie viel Prozent mehr leistungsaufnahme wären das? Alleine das sind doch schon mehr als +35% Leistungsaufnahme. Dann bessere Architektur, bessere Fertigung.
Wenn man das alles zusammenrechnet und dann nur 35% bei rauskommen. Ja meine Fresse, dann frag ich mich, was die die letzten zwei Jahre gemacht haben.
Manche Karten konnte man früher mal eben um 30% übertakten. Dann hatte man schon ~25% mehr leistung, ohne neue Fertigung, ohne neue Architektur und ohne 350 Watt Stromverbrauch....
Wäre der Preis seit dem also immer entsprechend der Leistung gestiegen, würde eine 2080Ti heute über 400.000€ kosten. Inflation und neue Features gar nicht mitgerechnet.
Diese ganzen Pseudorechnungen gehen nie auf, denn es gibt zu viele Faktoren, welche sich in jeder Generation stark unterscheiden können:
1. Produktionskosten (diese können bestenfalls geschätzt werden)
2. Entwicklungskosten (diese können nicht geschätzt werden)
Dann kommt nvidias Marktposition dazu, natürlich lassen die sich eine RTX 3090 gut bezahlen, weil es in dem Bereich bisher keinerlei Konkurrenz gibt...
Ergänzung ()
R1c3 schrieb:
Die heutigen Preise für GPUs finde ich schon echt ziemlich gesalzen und wenn das tatsächlich noch weiter nach oben gehen sollte wäre das für mich ziemlich besorgniserregend, denn dann sind wir wirklich bald bei Mittelklasse Karten für 500€ angekommen. Ich hoffe daher dass zumindest die schon echt hohen Preise der 2000er Serie nicht noch überboten werden, gerade auch weil Ampere ja was die Dx12/Vulkan Features angeht keine Neuerungen bringen wird und "nur" gleichauf mit Turing ist (bitte korrigieren falls ich mich irre).
Es wird natürlich wieder eine Mittelklasse im Preisbereich von 300-500€ geben, das sind schließlich die Bestseller, wie die Modellbezeichnung lautet muss man halt gucken.
Die RTX 3080/3090 sind eigentlich nur für Enthusiasten interessant die in 4K auf ihrem OLED mit G-Sync zocken wollen, wobei die 3080 mit 10 GB sofort viel unattraktiver geworden ist.
Und ja, ich zahle für ein gutes Erlebnis dann eben auch 1000€ nur für eine GPU, würde auch jederzeit eine Konsole die 4K/60fps packt für den doppelten Preis holen.
30 fps sind für mich einfach eine Zumutung und eine PS4 Pro habe ich nur, weil die Exclusive Games so krasse Grafik + Story haben.
Nein, der Preis orientiert sich an der Qualität und Marktposition sowie Nachfrage.
Ohne Konkurrenz ist der Preis immer hoch, egal ob gut oder schlecht.
Abseits von dem was du siehst, ist der Aufwand für eine anständige Beleuchtung in der Programmierung mit Raytracing extrem einfach geworden.
Das ist eine Win-Win Situation, bessere Grafik und weniger Aufwand.
Wenn die kommenden AMD Karten auch DirectX Raytracing in Hardware unterstützen und die neue Nvidia Generation kommt, werden immer mehr Spiele darauf zurückgreifen.
Der einzige Grund gegen Raytracing momentan ist, die Verbreitung von passender Hardware.
Wenn in 2-3 GPU (bzw 1 Konsolen) Generationen die 200€ Klasse brauchbare Raytracing Leistung abliefert, wird es zum Standard werden.
Die Karten sind soviel Wert wie jemand bereit ist dafür zu bezahlen. Das ist aufgrund der Konkurrenzsituation leider sehr viel aber scheinbar gibt es wieder genug die das tun werden.
Laut Igor (heutiger Kommentar auf Youtube) ist die 3090 die neue Titan (und soll später kommen).
Das würde auch den großen Abstand beim RAM von der 3080 mit 10 GB zu den 24 GB bei der 3090 erklären. Für alle die, die auf das nächstgrößere Modell geschaut haben weil ihnen 10 GB zu wenig erscheint, sollten sich schonmal nicht auf die 24 GB freuen, außer sie wollen Titanpreise zahlen.
Laut Igor (heutiger Kommentar auf Youtube) ist die 3090 die neue Titan (und soll später kommen).
Das würde auch den großen Abstand beim RAM von der 3080 mit 10 GB zu den 24 GB bei der 3090 erklären. Für alle die, die auf das nächstgrößere Modell geschaut haben weil ihnen 10 GB zu wenig erscheint, sollten sich schonmal nicht auf die 24 GB freuen, außer sie wollen Titanpreise zahlen.
Einfach aufs offizielle Event warten, solange ist es ja nicht mehr ^^
Wenn nvidia zu viel Geld möchte, dann kaufe ich eben erst einmal keine neue Karte (sondern vermutlich ne halbe Prime 1 Statue), hab ne aktuelle RTX und stehe nicht unter Zeitdruck diese zu tauschen, neue Konsolen kommen ja auch.
Wenn man die neue Gen Undervoltet bis zum Anschlag & dann mit dem riesen Kühler!
Wird das super!
Meine GTX 1080 schluckt im normalen Profil ,,,,mit dem ganzen Rechner (einem i5 8600K OC auf 4700MHz ) 320W!
Wenn ich sie undervolte schluckt der ganze Rechner an der Steckdose mit meinem Strommessgerät 180W!
Die Karte läuft normal mit 1884MHz @ 1,045V
Ich hab sie OC / undervoltet auf 1936Mhz mit 0.950v!
Und ich hab auch noch ein Profil mit 0.750v! Für Spiele mit weniger Anspruch!
Wie Pathfinder Kingmaker Beneath the Stolen Lands oder ähnliches!
Von daher denke ich das die neue Gen wieder mit einem super im Performance/Watt Bereich unterwegs sein wird!