News Nvidia GeForce RTX 3070 Ti: Lenovo nennt kleine Ampere-Grafikkarte mit 16 GB Speicher

CrustiCroc schrieb:
Nicht zu fassen, wie oft dieser "Fehler" gemacht wird. Nimm ne 2070S in dem Spiel. Knapp 8 GB werden ausgelastet in 4K.
Nimm ne 1080ti, knapp 11 GB werden ausgelastet.
Nimm ne Radeon VII, knapp 16 GB werden ausgelastet.
Merkste was?
Nimm eine RX 5700 XT 8GB in assassins creed odyssey 4K Mega stocker ....
Nimm eine RTX 2080 super in Farcry new dawn 4K mit HD Texturen was passiert stocker mir einer Vega 2 13 GB Vram belegt und siehe da keine Stocker mehr
Bitte nicht sowas schreiben sonst schauen sich das andere ab
 
  • Gefällt mir
Reaktionen: Onkel Föhn, iron_monkey, Tallum und eine weitere Person
cypeak schrieb:
nur weil es nicht deaktiviert ist, heißt es noch lange nicht dass nvida das als den haupteinsatzzweck vorgesehen hat.
diese karten sind in erster linie fürs gaming vermarktet worden.

Klar vermarktet Nvidia die Karten als Gamingkarten, ändert nichts daran, dass es genug Kunden gibt, die die GPUs für andere Zwecke einsetzen und auch kaufen.

Mining war auch nie ein Sellingpoint von Gaming Grafikkarten, trotzdem waren sie ziemlich gut darin. Egal als was Nvidia die bewirbt, die Leute kaufen Sie für den Zweck, den Sie vorsehen. Und wenn die karten das können, warum auch nicht.

Warum sollte man sich eine Quadro oder Tesla Karte kaufen, die das gleiche, teils weniger kann, wenn die GeForce die Anforderungen erfüllt? Die Quadros und GeForce Karten unterscheiden sich im wesentlichen heute eh meist nur durch den Treiber, ein paar Extrafunktionen, dem Speicherausbau und dem Kühler.


Nvidia bietet die Möglichkeiten die Karten auch für andere Zwecke zu nutzen deshalb wird es auch gemacht. Dadurch sind solche Projekte wie Folding@Home erst möglich. GPUs sind in erster Linie Recheneinheiten. Ob Sie nun Spiele berechnen oder etwas anderes, ist zweitrangig. Nvidia selbst hat in der Präsentation der RTX 30 Serie ja sogar selbst andere Beispiele gezeigt und ist am Anfang leicht auf Computingfähigkeiten und Folding@Home eingegangen und hat auch KI Themen angeschnitten, die rein für Gamer nicht unbedingt interessant sind.

Nvidia verkauft die GeForce Karten als Gaming Grafikkarten, aber unterbindet aber andere Einsatzwecke auch nicht aktiv, weshalb es völlig legitim ist, dass man etwas anderes damit macht.

Ich kann mit meiner Gamingtastatur auch problemlos programmieren oder etwas schreiben.
 
rasenschach schrieb:
Nein habe ich nicht. Die eigenen PCBs sind längst fertig ... nur der Treiber fehlt.

Also ist es den Herstellern verboten innerhalb der Lebenszeit von ~2jahren neue (eigene) PCBs zu entwickeln (weiter zu entwickeln)? Wäre mir neu.
Meines wissens hat Nvidia 2 PCBs entwickelt einmal das mit V für Ref und eins für die ersten Custom Versionen. Bin gespannt ob man wirklich eigene PCBs der Hersteller ab Start sieht.
Und von wegen Kühlern ja es gibt scheiß Kühler aber es gibt eben auch P/L mäßig recht gute. Man verzichtet dann halt auf Werks OC und RGB und schon ist man ~80-50€ mal eventuell auch 100€ mal eben günstiger als die Top Modelle.
 
papa_legba schrieb:
@InsideInfinity Ich kann auf hohen Einstellungen flüssig spielen mit einer 1070 in 1080p, mit Regler bedienen können meinte ich das man nicht alle einfach nach rechts prügeln kann, das geht bei vielen Titeln auch mit einer 2080TI nicht gut. Death Stranding hab ich allerdings nicht.

Verstehe ich natürlich, jedoch wirds bei vielen Spielen mit einer 1070er in 3440x1440 sehr knapp wenn du mit mehr las Medium zocken willst. Aber am ende kommt es halt so oder so auf die Spiele an die du zockst. Bei Spielen wie RDR2, HZD und noch paar anderen wirds halt nichts werden. Bei den meisten jedoch sollte es grade noch so reichen auf hohen Einstellungen.

Zu Death Stranding. Da ist die GPU das kleinere Problem jedoch frisst es gnadenlos CPU (ich vermute hier nen Bug oder grottige Optimierung). An manchen Stellen maximiert es einen 9900k auf allen Kernen mit 95-99% load und droppt selbst auf solch einem CPU in die 70er ;) Das ist absolut verrückt.
 
Beg1 schrieb:
Vollzitat entfernt.

ich kann generell auch mal das aktuelle Digital Foundry Vid zu den neuen Karten jeden empfehlen auch zwecks Vram (dieses 40+ Minuten Video). Ab Minute 35 fangen sie das Thema auch kurz an. Ganz interessant. Meist brauchen Spiele effektiv wenig Vram und müllen den Rest dann quasi einfach zu.
Denke da kann man sehr gut Horizon zählen oder aktuell den Flight Sim der mit laufender Spielzeit auch den Vram füllt oder füllen soll.
 
Zuletzt bearbeitet von einem Moderator:
Sebastian_12 schrieb:
Nimm eine RX 5700 XT 8GB in assassins creed odyssey 4K Mega stocker ....
Nimm eine RTX 2080 super in Farcry new dawn 4K mit HD Texturen was passiert stocker mir einer Vega 2 13 GB Vram belegt und siehe da keine Stocker mehr
Bitte nicht sowas schreiben sonst schauen sich das andere ab
Du hast echt nix verstanden. Lies mal Post 219. Der erklärt das sehr schön. Aber denke, das Vram angeht hast du nen Aluhut auf.
 
Laphonso schrieb:
Wenn Dich das jetzt schon stresst: Warten.
Brauchst Du die Performance mehr denn je und zählst die Tage: Ab Release kaufen.

Kaufen nach Budget und Verfügbarkeit, nicht das dem, was "irgendwann in vielen Monaten/in einem Jahr" kommt.

ja! I know!

Was mich aber stört ist, dass eine Nvidiakarte die jetzt rauskommt, die Halbwertszeit einer Packung Frischmilch hat.
 
Ich bin mir sicher, das Jensen not amused über diesen leak ist und das eventuell ein paar Köpfe rollen werden.
Wie viele Käufer dieser leak davon abschrecken wird, eine 3070 oder 3080 zu kaufen, kann man nicht abschätzen. Aber es ist bestimmt im Interesse von NV, diese Info, sollte sie denn stimmen, so gut wie möglich unter dem Radar zu halten.
 
InsideInfinity schrieb:
Verstehe ich nicht. Wenn du wie du sagst nicht zockst, bzw. nicht die anspruchsvollen Spiele, wieso wäre das Warten auf eine 3070Ti dann für dich gefühlt zu lang ? Sollte es nicht eher das Gegenteil davon sein und das Warten auf die 3070Ti nicht der Rede wert sein wenn du die Leistung nicht brauchst ?
Ne ich mein, die anspruchsvollen Spiele liegen momentan brach, zb ein Red Dead 2, Horizon, Control etc., weil ich eben dort mit der Leistung nicht zufrieden bin. Deswegen fällt das Warten so schwer, weil ich die gern endlich spielen will. :D
 
  • Gefällt mir
Reaktionen: InsideInfinity
5hred schrieb:
Ich bin mir sicher, das Jensen not amused über diesen leak ist und das eventuell ein paar Köpfe rollen werden.

Wieso? Es wurde klar gesagt, dass es die ersten Produkte der Ampere Generation sind und die angekündigten Karten werden sowieso ausverkauft sein. Wer auf mehr VRAM warten und dann erst später zugreift der soll das tun.

Glaubst du die Leute die sich gestern eine 2070S oder 2080S mit 8GB gekauft hätten, morgen plötzlich keine 3070 oder 3080 mit 8GB mehr kaufen? Das was hier in der Forenblase so aufgebauscht wird, hat in Wirklichkeit so gut wie keine Relevanz, dann gibt es halt bald Karten mit mehr VRAM und? Brauche ich das?
 
Kommt natürlich auf die Zeitspanne an zwischen dem release der ersten Ampere-Karten und dem Ampere-Update. Sollte die Zeitspanne zu kurz ausfallen, würden sich bestimmt viele Käufer veräppelt vorkommen. Da ist bisschen Fingerspitzengefühl gefragt bei NV...
Nach 4 Monaten hätte ich als Kunde kein Problem damit. Alles davor grenzwertig...
Wenn bei mir das Geld nicht locker sitzt, dann mache ich mir ernsthafte Gedanken über den Kaufzeitpunkt.
Wer sich diese Woche noch eine Turing zum normalen Preis geholt hat, der hat den Schuss nicht gehört oder der Person ist es egal, weil das Geld locker sitzt. Ich kann mir nicht vorstellen, dass ein gamer nichts von einem bevorstehenden Ampere-Relase mitbekommen hat. Klar, einige zocken eben nur und lesen keine Hardware-News, aber diese Leute müssen eben damit leben.
Ich persönlich war am Grübeln was ich diesen Monat mit meiner Vega 56 anstellen soll: behalten oder verkaufen solange der Preis noch gut ist. Nun hab ich mit Ampere wohl auch den Salat und muss damit rechnen, dass die Vega nicht mehr die 250€ mit EK Waküblock wert ist. Andererseits wollte ich noch Witcher 3 durchspielen, wofür mir eine Vega 56 komplett ausreicht. In 6 Monaten schau ich dann welche neue GPU es sein soll und die PS5 gibt es da dann auch schon...von daher vielleicht nicht viel falsch gemacht (ausser wenn ich solche Benchmarks sehe, wo die Vega 56 gegen die neue 5500XT abstinkt...)
Optimalerweise hätte ich die Vega vor wenigen Monaten für 250€ verkauft und durch eine stromsparende GPU ersetzt (1660S oder 5600XT), die sich in der gleichen Leistungsregion aufhält oder 100€ draufgepackt für eine vernünftige 5700. Entscheidend sollte aber immer sein, welche Leistung man aktuell braucht um seine Spiele genießen zu können und ob diese Leistung bezahlt werden kann. Wenn nicht, muss man eben Kompromisse eingehen.
 
Zuletzt bearbeitet:
CrustiCroc schrieb:
icht zu fassen, wie oft dieser "Fehler" gemacht wird. Nimm ne 2070S in dem Spiel. Knapp 8 GB werden ausgelastet in 4K.
Nimm ne 1080ti, knapp 11 GB werden ausgelastet.

Keine Ahnung wie das bei Tomb Raider ist, bei Ark ist es definitiv anders. Knapp über 10GB mit meiner 1080 Ti nach ein paar Stunden. Gegentest war eine RTX 2080. Die 8 GB waren komplett am Anschlag, dadurch erzeugte die GPU Microruckler/sehr schlechte Frametimes. Das gab es bei der 1080 Ti nicht.
 
5hred schrieb:
Kommt natürlich auf die Zeitspanne an zwischen dem release der ersten Ampere-Karten und dem Ampere-Update.

Es geht um VRAM, da können sie auch gerne wie früher zum gleichen Zeitpunkt eine 10 und eine 20GB Variante auf den Markt bringen und nicht um Varianten mit mehr Leistung. Da wird sich auch niemand beschweren wenn in zwei Monaten noch eine 20GB Version der 2080 nachgeschoben wird, als Antwort auf die AMD Grafikkarten.

Und selbst wenn die Karten noch etwas mehr Leistung bekommen sollten, wenn diese Leistung mit einem Aufpreis verbunden ist, ist es genauso irrelevant, viel problematischer sind da Preisanpassungen, aber die dürfte man durch die gezielt überraschend günstige Platzierung der aktuellen Karten eher für unwahrscheinlich ansehen.

Vielleicht gibt es zu Weihnachten eine 3070Ti mit 16GB für 700€ und eine 3080Ti mit 20GB für 900€, ich glaube kaum dass dadurch jemand der sich eine 3070 mit 8GB für 500€ gekauft hat "betrogen" fühlt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mr. Rift und Onkel Föhn
Shoryuken94 schrieb:
Klar vermarktet Nvidia die Karten als Gamingkarten, ändert nichts daran, dass es genug Kunden gibt, die die GPUs für andere Zwecke einsetzen und auch kaufen.

Mining war auch nie ein Sellingpoint von Gaming Grafikkarten, trotzdem waren sie ziemlich gut darin. Egal als was Nvidia die bewirbt, die Leute kaufen Sie für den Zweck, den Sie vorsehen. Und wenn die karten das können, warum auch nicht.
ja, aber dann erübrigt sich die diskussion.

die ursprüngliche frage ging dahin das die radeon 7 wohl immernoch mehr bandbreite hat als die 3090. (stimt das?
)
ich wiederhole mich: derjenige der in erster linie spielt - den interessieren vor allem die fps und die frametimes die er unter dem strich herausbekommt. derjenige der gpu-computing anwendungen nutzt, für den ist es ebenfalls wichtig was am ende rauskommt - die speicherbandbreite ist bei beiden eher das mittel zum zweck und nicht die daseinsberechtigung einer graka; wie fast immer in dieser tech domäne ist "mehr" (bandbreite) am ende auch besser..
 
@xexex : ich mag mich täuschen, aber früher hatten die Karten glaub ich noch keine 10 Chips für den Speicher drauf... für die kleine Konfiguration. Da 20 Chips zu verbauen dürfte die Karte deutlich teurer machen (was wohl auch mit ein Grund für den Preis der 3090 sein dürfte)
 
Bin echt unschlüssig. Eine 3070 oder 3080 FE bei Erscheinen, auf AMD warten oder gar auf die Ti/Super?

Jede Variante sollte auf 2560x1440 (hohe bis Ultra Einstellungen) ein großes Upgrade zur Vega 56 darstellen..

Will ja nur mal durch die Bank weg 60+ FPS bzw mehr bei Warzone..
 
@Jesterfox
Es gibt aktuell nur 1GByte große GDDR6X Chips, weshalb eine 3080 mit 20GB auch doppelt so viele davon bräuchte und vermutlich dann bei 900-1000€ landen wird.
https://www.computerbase.de/news/grafikkarten/gddr6x-grafikspeicher-21-gbps-micron.73399/

Bei GDDR6 (3070) sieht es entspannter aus, dort gibt es auch 2GByte Chips und der Aufpreis dürfte eher um die 100-200€ betragen.
https://www.computerbase.de/news/grafikkarten/samsung-gddr6-18gbps.62130/

Eine 3070 mit 16GB VRAM dürfte sich eigentlich ziemlich einfach realisieren lassen und ist wohl auch der Grund wieso bereits Leaks dazu durchgesickert sind. Denkbar ist, dass man diese Karten den Partnern überlässt, als eine Form "Wiedergutmachung" für die preisliche Platzierung der FE Karten. Die 3070 für 500€ mit Leistung einer 2080Ti ist schlichtweg eine Kampfansage, die auch durch den nun mit günstigen RTX Karten gefluteten Gebrauchtmarkt, zu Verbreitung der Technologie führen wird und zusätzlich auch AMD den Boden für die aktuelle Navi Generation wegnimmt.
 
Zuletzt bearbeitet:
Jepp, deswegen rechne ich mit der 20GB 3080 nicht vor Mitte nächstes Jahr wenn Micron die 2GB Chips am Start hat.

Früher hatten die Grafikkarten halt deutlich weniger Chips für ihren Speicher, da war es einfacher zu verdoppeln.
 
  • Gefällt mir
Reaktionen: matty2580
Jesterfox schrieb:
Jepp, deswegen rechne ich mit der 20GB 3080 nicht vor Mitte nächstes Jahr wenn Micron die 2GB Chips am Start hat.

Zwischen der 3080 und der 3090 klafft eine solche Lücke, dass dort problemlos eine mit 20 Speicherchips bestückte 2080 passen würde, wir werden sehen. Für mich werden die 10GB der angekündigten 2080 erst einmal für viele Jahre reichen und dann wird es wohl schon längst eine 4080 oder gar 5080 geben.
 
Aber das Preis/Leistungs Verhältnis einer solchen karte wär wohl schwer zu vermitteln... die meisten Leute schauen ja nur auf die Benchmarkbalken der 0815 Games und da tut sich mit dem doppelten VRAM eher wenig... erst recht wenn man auf den Durchschnitt statt auf die Frametimes schaut.

Aber wenn man bei nem Game das man mag nicht die maximalen Details einschalten kann weil die teure Karte zu wenig VRAM hat ist schon hart... ich kenn das von meiner Fury X und DeusEx MD.

Und ich erwarte das wir mit dem Launch der neuen Konsolen-Generation auch Spiele sehen werden die entsprechend viel VRAM nutzen werden, wenn man sie lässt. Klar kann man die Texturdetails auch zurückschalten... aber dafür gibt man doch nicht so viel Geld für ne Grafikkarte aus...
 
  • Gefällt mir
Reaktionen: Revan1710 und Onkel Föhn
Zurück
Oben