News Nvidia GeForce RTX 3070 Ti: Lenovo nennt kleine Ampere-Grafikkarte mit 16 GB Speicher

JahJah192 schrieb:
Mein Monitor steht in der Signatur, hab nicht mal annähernd die 11GB voll, meist dümpelt das bei der Hälfte rum.
Sicherlich wird das bei 2k - Ultrawide nicht plötzlich nen Sprung machen.

Hab auch nen UWQHD Monitor (LG 34GK950G) und ich erwarte schon deutlich größere Texturen, denn mit dem Release von PS5 und Xbox Series X können die Devs auf bis zu ~11-12 GB VRam zugreifen und das sind dann auch nicht einmal zwangsläufig 4K-Texturen.

Wir werden es abwarten müssen, aber momentan tendiere ich wenn dann zur RTX 3090, oder eben eine 3080 mit 20 GB, denn um VRam möchte ich mir beim Kauf einer High-End-Karte wirklich keine Gedanken mehr machen.
 
  • Gefällt mir
Reaktionen: Tallum
ich hab zeit bis weihnachten oder februar 21 oder halt april21. falls eine 3070 ti kommt, sollst nicht an den paar kröten mehr zur non ti liegen^^
 
matty2580 schrieb:
@Monarch2:
Die 3070 verbraucht weniger Strom als die 2080ti, ist dabei schneller, und viel günstiger.
Okay, hast Recht, richtig übel sind erst die 3080/90er Modelle. 50W mehr als die 2070 würde noch mit dem jetzigen Netzteil gehen. Dieses würde ich auf keinen Fall tauschen.
 
Beg1 schrieb:
Hab auch nen UWQHD Monitor (LG 34GK950G) und ich erwarte schon deutlich größere Texturen, denn mit dem Release von PS5 und Xbox Series X können die Devs auf bis zu ~11-12 GB VRam zugreifen und das sind dann auch nicht einmal zwangsläufig 4K-Texturen.

Zumindest bei der Xbox Series X würde ich nicht davon ausgehen, das jemals mehr als 10 GB für die Grafik verwendet wird. Die weiteren 6 GB sind nämlich schon deutlich langsamer angebunden ( 560 GB/s vs. 336 GB/s) und von diesen 6 GB sind auch noch 2.5 GB für das Betriebssystem reserviert.
Wie die Aufteilung bei der PS5 aussieht weis ich nicht.
 
Sahit schrieb:
Du scheinst aber ne gute Kristallkugel zu haben. Es gab eigentlich immer ganz gute Custom Kühler die nicht in der high-end Klasse angesiedelt waren, natürlich darf man aber nicht die günstigsten Modelle nehmen.

Ein Beispiel https://geizhals.de/gainward-geforc...115-a1870928.html?hloc=at&hloc=de&v=e#ratings
Natürlich nicht die leiseste aber ich denke ein guter P/L Kompromiss.
Das kommt - wie ich ja gesagt habe - eben auf die subjektiven Anforderungen an. Ich will nicht absprechen das die Karte okay ist, aber für mich ist das eben nicht so. Und die 3080 und erst recht die 3090 mit den VRAM Bausteinen auch auf der Rückseite des PCBs muss man einfach etwas mehr in die Kühlung investieren. Die
Packdichte ist diesmal wirklich hoch und die AIBS haben nicht umsonst Problem das wegzukühlen.

Bei Turing war das noch easy machbar bei 12nm bei Ampere ist das nicht leicht. Die 3070 ist kein Problem, bei der 3080 muss man schon genau auf die Tests schauen, damit man sich kein Heizwerk in das Case baut. Oder halt unter Wasser - macht diesmal Sinn - aber da sind wir beim Thema günstig halt völlig raus. Klar muss nicht jeder eine 2080 TI Lightning (meine alte Karte) oder eine HoF kaufen.

Wenn aber MSI sagt, dass ihr Ziel ist bei der 3090 unter 80 Grad Celsius Zieltemperatur zu bleiben (ich glaube ich habe noch nie 70 Grad bei meiner gesehen, eventuell mal 65 Grad bei meiner Fankurve) muss man schon sehr gut nachdenken, ob das diesmal noch alles mit einer Dual Fan Karte machbar ist. Kann sein das es geht, aber dann halt mit UV+hoher anliegender RPM auf den Lüftern. Ich präferiere einfach einen leisen Rechner und wenn man dann im Top-Bereich kauft, muss die Kühlung einfach stimmen.

Die 3070 ist sicher kein Problem - die Preise scheinen bei Inno in etwa auf dem Niveau des MRSP zu liegen - ohne Test sollte man bei so einem Architektur- und Nodesprung nichts kaufen. Erinnere Dich an Navi. Da waren die Temps zwar grundsätzlich okay, aber viele Lüfterkonstruktionen (inkl. der schlecht oder nicht platzierten Wärmepads) waren ungeeignet - sogar Triple Fan Versionen (XFX oder TUF oder die Evoke).
 
Beg1 schrieb:
Hab auch nen UWQHD Monitor (LG 34GK950G) und ich erwarte schon deutlich größere Texturen, denn mit dem Release von PS5 und Xbox Series X können die Devs auf bis zu ~11-12 GB VRam zugreifen und das sind dann auch nicht einmal zwangsläufig 4K-Texturen.

Wir werden es abwarten müssen, aber momentan tendiere ich wenn dann zur RTX 3090, oder eben eine 3080 mit 20 GB, denn um VRam möchte ich mir beim Kauf einer High-End-Karte wirklich keine Gedanken mehr machen.

Mag schon sein das sich in einigen Jahren da was tun kann, kann aber genauso gut umgekehrt sein, denn einfach nur viel Vram nutzen heißt noch lange nicht tolle Optik oder gute Texturen. Die optisch beeindruckendsten Spiele nutzen ziemlich wenig Vram. Red Dead und Konsorten. Wenn man sich mehr Mühe gibt kriegt man mit Optimierung erstaunliches auf kleinen Platz.
Bedenke aber auch bei Konsolen immer shared Ram/Vram, bisherige Konsolenspiele hatte gerade mal 3-4GB genutzt, kann man ja gut an Konsolenports sehen (Death Stranding glaub war unter 4 GB, Red Dead eben auch super sparsam usw. bei bisherigen 8GB shared)
Und
Wenn man bedenkt in 2 Jahren kann man easy wieder Upgraden auf die nächste 4080, ohne jetzt wieder das große Geld kaputt zu machen, wie mit der 2080ti....
und in dem Zeitraum wird sich da 100% nichts tun. Neue Spiele für neue Systeme brauchen ihre Zeit.
Zudem von den 11GB 2080ti bisher immer meist nur 6 voll waren, bleiben 4 zum verbraten in 2 Jahren.
Die 3090 wäre mir für meinen Monitor einfach viel zu viel rausgeschmissenes Geld für 2 Jahre, reicht von der Leistung ja eigentlich die 2080ti schon, die 3080 wird überwiegend schon OP sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Beg1
Bei den Lücken zwischen 3070/80/90 wird Nvidia sicher die offenen Bereiche schließen.
Gut möglich das hier AMD gekontert wird mit "neuen" Modellen.
Mehr Speicher und Leistung ist aber immer gut.
 
rasenschach schrieb:
Das kommt - wie ich ja gesagt habe - eben auf die subjektiven Anforderungen an. Ich will nicht absprechen das die Karte okay ist, aber für mich ist das eben nicht so. Und die 3080 und erst recht die 3090 mit den VRAM Bausteinen auch auf der Rückseite des PCBs muss man einfach etwas mehr in die Kühlung investieren. Die
Packdichte ist diesmal wirklich hoch und die AIBS haben nicht umsonst Problem das wegzukühlen.

Ich will nicht abstreiten das die neuen GPUs nicht einfach zu kühlen sind aber du hast da nen paar Denkfehler.
VRAM auf der Rückseite und auch das enge zusammenstellen der anderen elektronischen Bauteile trifft an sich nur auf das Ref PCB zu. Mit etwas Zeit werden die Hersteller Eigenentwicklungen herstellen die dann wohl nicht darauf angewiesen sind das VRAM Bausteine auf der Rückseite verbaut werden, da diese schlicht Größer ausfallen können. Ist dann halt die Frage bis wie weit das die Hersteller ausreizen damit die Karten noch in die Gehäuse passen.
Natürlich wer bevorzugt nicht einen leisen Rechner und ja ich gehe auch davon aus das die RTX3090 schon an der Kotzgrenze läuft was TDP angeht.
 
Na das ging ja fix, wird ja ein heißer Herbst werden, hoffe AMD lässt sich nicht ewig bitten.
 
  • Gefällt mir
Reaktionen: Skjöll
JahJah192 schrieb:
Wenn man sich mehr Mühe gibt kriegt man mit Optimierung erstaunliches auf kleinen Platz.
Bedenke aber auch bei Konsolen immer shared Ram/Vram, bisherige Konsolenspiele hatte gerade mal 3-4GB genutzt, kann man ja gut an Konsolenports sehen

Ich mach mir nicht um die super optimierten Games Gedanken, aber ein Konsolenport wie Horizon Zero Dawn kann mehr als 10 GB VRam nutzen.
Und du hast schon recht, es ist eine wesentlich kleinere Investition, wenn man sich eine 3080 holt, bei UWQHD bin ich mir unsicher, ob der VRam reicht, aber mein 4K OLED kann dank HDMI 2.1 dann auch mit 120 Hz angesteuert werden und in 4K könnten 10 GB schon eng werden.
Es ist einfach ein wenig ärgerlich, hätte schon Lust auf die 3080, aber es fehlen imho 2-6 GB VRam, damit man sich auch wirklich für 2 Jahre wohlfühlen kann.

Mit der RTX 3090 habe ich auch Probleme:
650 W Netzteil von bequiet könnte eng werden
Abwärme stelle ich mir ziemlich heftig vor, meine 2070 Mini erzeugt im Sommer schon ordentlich Wärme bei 175 W
Die Größe macht mir Sorgen, mein Mainboard hat zwar verstärkte PCIe Slots, aber mein Gehäuse ist jetzt auch nicht riesig
 
Zuletzt bearbeitet:
Shoryuken94 schrieb:
Das stimmt so nicht. Schließlich sind diese Features auch nicht deaktiviert. Besonders seit Turing werden die "Consumer GPUs" von Nvidia auch für viele professionelle Zwecke gerne gekauft. Die wandern heute gerne mal in Workstations und Rechner für AI Anwendungen.

nur weil es nicht deaktiviert ist, heißt es noch lange nicht dass nvida das als den haupteinsatzzweck vorgesehen hat.
diese karten sind in erster linie fürs gaming vermarktet worden.
 
Verfügbarkeit eventuell nicht gegeben? Also ein Papierlaunch. Meh. Was dann auch bedeutet das eventuelle 3070/80Ti später kommen werden, wenn die normalen tatsächlich erst Anfang nächsten Jahres in größeren Stückzahlen verfügbar sind.

@InsideInfinity Ok, lass mich das genauer sagen. Ich kann auf hohen Einstellungen flüssig spielen mit einer 1070 in 1080p, mit Regler bedienen können meinte ich das man nicht alle einfach nach rechts prügeln kann, das geht bei vielen Titeln auch mit einer 2080TI nicht gut. Death Stranding hab ich allerdings nicht.
 
Sahit schrieb:
Ich will nicht abstreiten das die neuen GPUs nicht einfach zu kühlen sind aber du hast da nen paar Denkfehler.
VRAM auf der Rückseite und auch das enge zusammenstellen der anderen elektronischen Bauteile trifft an sich nur auf das Ref PCB zu. Mit etwas Zeit werden die Hersteller Eigenentwicklungen herstellen die dann wohl nicht darauf angewiesen sind das VRAM Bausteine auf der Rückseite verbaut werden, da diese schlicht Größer ausfallen können. Ist dann halt die Frage bis wie weit das die Hersteller ausreizen damit die Karten noch in die Gehäuse passen.
Natürlich wer bevorzugt nicht einen leisen Rechner und ja ich gehe auch davon aus das die RTX3090 schon an der Kotzgrenze läuft was TDP angeht.
Nein habe ich nicht. Die eigenen PCBs sind längst fertig ... nur der Treiber fehlt. Nochmal die 3070 ist kein Problem, ab der 3080 bei der hohen TDP wird es eng mit günstigen Kühlern. Ich kenne 350W+ von meiner Lightning - wenn ich da den KFA2 Kühler der 2080S draufmachen würde, hätte ich 2500+RPM und trotzdem 75 Grad Celsius oder mehr. Will ich nicht - wenn es für Dich okay ist dann kauf Dir eine günstige Lösung für immer noch 699 Euro oder mehr - mich persönlich stört das eben so sehr, dass ich nicht gewillt bin bei dem Preis Kompromisse einzugehen.

Für mich ist die 3080 aber auch keine Option - trotz mehr Power als die TI - weil ich nichts mehr unterhalb von 16GB VRAM kaufen werde. Ich denke damit haben wir alles geklärt, oder? Vielleicht sollten alle erstmal etwas abwarten und mal schauen was in den nächsten Tagen/Wochen von AMD kommt - da wird ja auch schon allenthalben ein Abgesang angestimmt. Kommt auch anders als alle denken .....
 
Zuletzt bearbeitet:
SirSilent schrieb:
Eine 3070Ti mit 16GB Ram macht wahrscheinlich mehr Sinn als eine 3080 mit 10GB. Hoffentlich dauert es nicht allzu lange.
Das ist die 1000$ Frage. Ohne unabhängige Tests lässt sich das doch gar nicht seriös beantworten. Ampere hat bestimmt auch bessere Texturenkompression wieder. Und es kommt auf die Auflösung an.
 
Ich bin gespannt auf die ersten öffentlichen Tests.

Alle Performance Verbesserungen scheinen sich auf 4k mit aktiviertem Raytracing und DLSS zu beziehen.

Mal schauen wie das ganze dann bei dem Pöbel in 1080p bzw 1440p ohne Raytracing aussieht, sicherlich deutlich weniger "impressive"

Bezüglich Leistungsaufnahme wurde auch nicht so viel gesagt, mal schauen was da so kommt.

Bin noch sehr skeptisch.
 
  • Gefällt mir
Reaktionen: Tallum
Falbor schrieb:
3080 mit 20GB speicher, dann macht sie auch sinn
jetzt mit 1080TI shadow of the tomb raider (2 jahre altes spiel) auf 4k mit mid/high settings 10,5GB speicherauslastung
Nicht zu fassen, wie oft dieser "Fehler" gemacht wird. Nimm ne 2070S in dem Spiel. Knapp 8 GB werden ausgelastet in 4K.
Nimm ne 1080ti, knapp 11 GB werden ausgelastet.
Nimm ne Radeon VII, knapp 16 GB werden ausgelastet.
Merkste was?
 
  • Gefällt mir
Reaktionen: Monarch2, McFritte und derin
derin schrieb:
Ich bin gespannt auf die ersten öffentlichen Tests.

Alle Performance Verbesserungen scheinen sich auf 4k mit aktiviertem Raytracing und DLSS zu beziehen.

Mal schauen wie das ganze dann bei dem Pöbel in 1080p bzw 1440p ohne Raytracing aussieht, sicherlich deutlich weniger "impressive"

Bezüglich Leistungsaufnahme wurde auch nicht so viel gesagt, mal schauen was da so kommt.

Bin noch sehr skeptisch.

Im Video von Digital Foundry wurden Spiele auch ohne DLSS und ohne Raytracing getestet.
Trotzdem gabs dort auch schon ~80% mehr Leistung.

Tatsächlich scheint sich die RT Leistung nicht überproportional verbessert zu haben. Sie ist quasi 1:1 mit der Rasterisierungsleistung gestiegen.

In 1080p oder vermutlich auch 1440p wird man wohl schnell in CPU limits geraten. Zumindest mit aktuellen Spielen. Mit den next gen Games dürfte das wieder anders aussehen. Da wird wohl auch Ampere in 1440p ordentlich was zum arbeiten haben, wenn z.B. so ne Konsolen GPU auf dem Niveau einer 2080 im schlimmsten Fall ihre gesamte Leistung für 1440p (oder 4K checkerboarding) bei 30 FPS verpulvert.
Da ist ~doppelte Leistung am PC für 60+ FPS schon nicht verkehrt.

Ich bin einerseits überrascht, dass Ampere so einen großen Sprung verspricht, aber im Anbetracht der diesmal relativ starken konsolen war das auch bitter nötig, um am PC auch in Zukunft mit entsprechend hohen FPS spielen zu können. Man braucht einfach ein gewisses performancedelta zu den Konsolen, sonst muss man für mehr FPS die Details unter Konsolenniveau schrauben. Das will ja auch keiner...

CrustiCroc schrieb:
Nicht zu fassen, wie oft dieser "Fehler" gemacht wird. Nimm ne 2070S in dem Spiel. Knapp 8 GB werden ausgelastet in 4K.
Nimm ne 1080ti, knapp 11 GB werden ausgelastet.
Nimm ne Radeon VII, knapp 16 GB werden ausgelastet.
Merkste was?

Ich kann mit 4GB VRAM in 1440p die höchsten Texturen in dem Game aktivieren. (oder wars das vorgängerspiel`? egal, da waren glaub ich auch schon 6GB gefordert)
Inwiefern die dann wirklich sichtbar sind, ist für mich nicht 100% validierbar, aber der Performanceinbruch hält sich doch relativ stark in Grenzen. Die Framtimes passen auch noch (also keine Hänger und ruckler).
Klar, so ~30% weniger performance gibts dann schon, das merkt man. Aber das zeigt für mich, dass der tatsächlich notwendige VRAM, um eine Szene ohne performanceeinbruch zu rendern SEHR deutlich von der Belegung des VRAMs (bei GPUs mit viel VRAM) abweicht.

Das was ihr da immer als VRAM Auslastung seht ist in den meisten Fällen einfach totaler Unsinn.
Der Treiber lädt halt den VRAM voll, weil das eben effizient ist und im zweifel die performance stabilisieren kann. Nach dem motto, "was man hat, das hat man".
Aber selbst wenn du eine Karte mit 8GB hast und da meinetwegen 6 GB belegt sind, dann kann es durchaus sein, dass die gleiche Karte mit 4GB noch keinerlei performanceeinbrüche zeigt, weil für die Szene selbst vielleicht nur 3,5 oder 4GB wirklich notwendig sind.
Und selbst wenn für eine Szene 5 GB notwendig sind (also 1GB mehr, als physisch vorhanden) dann kann man das immernoch mit moderaten performanceeinbußen laufen lassen. Dann werden halt für jedes Frame nochmal extra Daten aus dem VRAM gekickt und eingelesen, bis der Frame fertig ist. Seit DDR4 RAM und Windows 10 kein großes Thema mehr. Der VRAM wird einfach in den RAM ausgelagert (Taskmanager - gemeinsamer GPU Speicher) , die Spiele stottern nicht mehr, sondern laufen einfach nur etwas langsamer.
Diese Behauptungen von wegen, sobald der VRAM voll ist, eskalieren die Frametimes und es wird unspielbar ist nach meiner Erfahrung einfach nur völliger Unsinn. Das war bei Windows 7/8 noch so, aber mit Windows 10 eben nicht mehr.

Man kann das auch ins Extreme treiben, z.B. auf 30 FPS limitieren und den VRAM noch weiter überladen.
Solange das Frame irgendwie innerhalb der 33,33 ms fertig wird ist alles gut. Und wenn der VRAM dafür zwei oder dreimal pro Frame neu beschrieben werden muss. Es geht, es läuft stabil und es hängt nichts (mit 30 FPS Vsync auch perfekte Frametimes), es wird nur immer langsamer, je weiter man es übertreibt.

Neue Spiele sind da zum Teil noch unkritischer, da für Texturen nur ein Pool genutzt wird. Da definiert die Texturstufe nicht die Qualität, sondern die Menge an Speicher, die für Texturen genutzt werden kann.
Heißt, in der Nähe sieht man dann als Spieler immer die bestmöglichen Texturen, während dann in größerer Entfernung schlechtere Texturen genutzt werden. So erhält man auch mit sehr wenig VRAM eine im Schnitt sehr hohe Texturqualität Die Menge des VRAM bestimmt dann nur, ab welcher Entfernung die Qualität langsam abfällt (was fast nicht auffällt) Mit DX12 Ultimate und den neuen Features sollte das ganze nochmal effizienter werden.
Schon jetzt bieten viele Spiele schon gar keine Einstellung mehr für die Texturen, und machen das alles komplett automatisch. Die Zeiten von wegen du brauchst VRAM Menge X um Texturen in Qualität Y zu sehen sind eigentlich jetzt schon fast vorbei...

Ich frag mich daher echt, ob die 8/10 GB bei Ampere in Zukunft nicht doch dicke ausreichen...
Ich sag mal so, wenn die neuen Features wie versprochen greifen und genutzt werden, dann halte ich 16 GB für künftige Spiele eigentlich für nutzlos. Aber ja, wissen kann mans leider nicht. Wie immer, abwarten...
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Monarch2, GrooveXT und derin
Och, schade warum den USB-C wegrationalisiert? Den fand ich echt nützlich.

Ich werde aber erst mal bei meiner 2080 RTX bleiben.

Interessant ist aber das die GPU direkt/er auf die NVME zugreifen können soll.
Das wäre noch was womit ich Zeit vermutlich einsparen könnte.
 
Zurück
Oben