News Nvidia GeForce: RTX 3090, 3080 & 3070 mit viel mehr Leistung ab 499 €

3070Ti mit 16GB Grafikspeicher wird bereits bei Lenovo gelistet - Für alle, denen 8GB zu wenig ist

https://videocardz.com/newz/nvidia-geforce-rtx-3070-ti-spotted-with-16gb-gddr6-memory

https://psref.lenovo.com/Detail/Legion/Lenovo_Legion_T7_34IMZ5?M=90Q80047RS

1599032171412.png



### Anmerkung 10:40 Uhr

-> Stromverbrauch dieser Variante wahrscheinlich 230 Watt
-> Preis sinnvollerweise zwischen 499 und 699$ einzuordnen
-> Nvidia Referenzdesign wie bei RTX 3070, Speicherbestückung auf PCB beidseitig

Geforce RTX 3080Ti mit 20GB RAM ebenfalls bestätigt, Preise und Releasetermin unbekannt
(Palit hat Modellnummern für diese Grafikkarten-Serie als Platzhalter im Sortiment)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Acedia23, MeisterOek, lkullerkeks und 14 andere
Wollte eigentlich kein downgrade beim RAM machen.
Aber so langsam wird es Zeit die 1080ti in Rente zu schicken.
Das gebotene ist echt gut, muss gestehen dass ich aber für einen Sprung über 2 Generationen irgendwie mehr erhofft hatte.

Hoffentlich kommt die 3080ti mit 20 GB RAM und +10% shadern und 15% mehr Takt bald ;)
 
  • Gefällt mir
Reaktionen: adAstra und gartenriese
TNM schrieb:
AMD wird so etwas ähnliches anbieten (Konsolen), aber das könnte ein Musthave werden, und damit auch ENDLICH ein Argument für PCIe4.

Es ist AMDs Konzept, was sie bereits mit der Vega für den professionellen Sektor eingeführt haben und mit den Konsolen salonfähig wird. Hier musste Nvidia einfach kontern, sonst wäre das durchaus ein Feature mit dem AMD einen Vorteil hätte.
https://techgage.com/article/a-look-at-amd-radeon-vega-hbcc/

PCIe 4.0 wird dafür jedoch gar nicht benötigt, sondern eine NVMe SSD.
https://devblogs.microsoft.com/directx/directstorage-is-coming-to-pc/
 
  • Gefällt mir
Reaktionen: Hayda Ministral
calippo schrieb:
Und ich verstehe nicht, wie man sich über Leute aufregen kann, die halt ein bisschen Spaß haben. Klar muss man jetzt echte Benchmarks abwarten, klar wird AMD hoffentlich was ordentliches nachlegen.
Das mindert doch nicht die Vorfreude von Leuten, die sich jetzt eine neue Nvidia Karte kaufen oder das zumindest planen.

Man darf nicht vergessen, dass PC-Gaming immer noch ein vergleichsweise günstiges Hobby ist und viele Leute viel Zeit damit verbringen. 500€ oder 700€ für eine Karte, die man locker 3 Jahre und mehr nutzen kann und die dann immer noch Restwert und vor allem Nutzwert hat, das entspricht ja nicht mal einem Coffee-To-Go pro Arbeitstag.
3Jahre ohne RTX Spiele könnte klappen, 8GB / 10GB sind hier einfach zu wenig. 2021 wird das Jahr der RTX Spiele.
 
Siran schrieb:
Ob mein EVGA G2 650W Gold eine 3080 verkraftet?
Also bei 550W wird man denke ich mal erst Tests abwarten müssen und auch etwas auf das eigene Netzteil schauen, aber bei einem hochwertigen 650W NT sehe ich da überhaupt keine Probleme mehr.

Zu HDMI 2.1 (40 oder 48 gbps) ist da aber meines Wissens leider noch nichts bekannt, das ist eine zu detaillierte Fragestellung für den aktuellen Zeipunkt.
 
  • Gefällt mir
Reaktionen: Siran
Pinsel schrieb:
Das würde im Umkehrschluss bedeuten, dass die Customizer ihre Karten mit ihren Kühlern ca. 100€ günstiger anbieten könnten...:daumen:
kommt draufan wie „aufwändig“ der custom kühler wird
 
Psychodelik schrieb:
Man merkt die Lederjacke hat Panikschübe wegen der kommenden BIG-Navi und RDNA2 von AMD, sonst würde er nicht so eine brachiale Leistung an den Tag legen was die 3xxx Serie betrifft.
Was Du nicht alles weisst...

Die Leute die ungeduldig und unvernünftig sind, die werden diese VRAM Krücken beim erscheinen sofort kaufen, das weis die Lederjacke und deswegen nutzt er die Situation eiskalt aus,
Ja- So siehts aus! nvidia will die maximalzahl an unzufriedenen Kunden generieren, die sich so richtig über den Tisch gezogen fühlen und nie wieder was von denen kaufen.

denn da draussen rennen viel zu viele unvernünftige Leute rum.
Deswegen sind wir froh, dass es einen wie Dich gibt, der die Menschheit von dem Bösen schützt.
Die Lemminge und Konsumschafe wissen nämlich nicht, was gut für sie ist.

Dabei habe ich von der Wärmeentwicklung und dem Stromverbauch noch gar nicht mal gesprochen wohlbemerkt.
Dann solltest Du Dich mal ein wenig mit der Geschichte von Computern und deren Entwicklung auseinandersetzen. Vielleicht hast Du dann diesbezüglich was sinnvolles beizutragen?

Wie kann man nur 1500 Euro ohne Mwst. für eine 3090 ausgeben, das verstehe ich nicht.
Ich auch nicht, da sie 1499,-€ mit Mwst. kostet. Wie kann man sich nur mit solch einer selbstgefälligkeit uninformiert in ein Technikforum begeben und die Leute mit solch einem Text belästigen.

Das ist einfach nur krank in meinen Augen und die Leute die das auch noch ohne zu murren bezahlen, die unterstützen auch noch mit ihrem Kaufverhalten diese Preissteigerungen. Es geht mir nicht in die Birne rein, sorry Leute.
Dass das in Deine Birne nicht reingeht, wundert mich nicht. Schonmal daran gedacht, dass man damit auch weitergehende Innovation und Fortschritt fördert, wenn man diese Produkte kauft?

Und wem kommt das zu Gute? Vielleicht auch den Mittel- und Einsteigerklassen der nächsten GK- Generationen? Hirn einschalten.

Auf reddit gehen einige davon aus, das ein paar Grafikkarten wegen den zu nahe verbauten GDDR6x VRAM Bausteine abrauchen werden
Auf reddit gehen auch einige davon aus, dass die Erde eine Scheibe sei.

- und was mich auch noch stört ist, das zahlreiche IT-Magazine wie zum Beispiel Computerbase, PCGH, Gamestar und noch ein paar andere mit ihren clickbait Artikeln diese ganze Sache mit den 3xxx Reihe inkl. den enormen Preisen unterstützen.
Alles Geisterfahrer auf Deiner Autobahn?

Durch solche "Heißmach" Artikel wird die Vernunft und das Denken der Leute regelrecht ausgeschaltet, sieht man ja wunderbar an den vielen "boah ist das eine geile Karte" Kommentare.
Ja- Die Masse wird von den Medien durch geheime Strahlen kontrolliert. Noch nicht gewusst?

Ich persönlich werde definitiv auf die BIG-Navi Vorstellung warten und dann mich entscheiden ob es das grüne Lager wird oder das rote Lager bei dieser Serie.
Nachdem Du das grüne Lager so runtergeputzt hast und alle als Idioten betitelst, die sich solche Produkte kaufen?
Merkst Du eigentlich, was Du da schreibst?

Als ob nVidia das heilige Tor der Welt ist, tsssss, was ist denn los mit euch Leute.
Nein- Aber sie haben ein attraktives Produkt auf den Markt geworfen! Ist das jetzt wirklich sooo schlimm für Dich?

Die Lederjacke will nur euer besch... Geld, sonst nichts
Und wofür arbeitest Du so?


und diese DLSS Sache, wenn man es ganz genau betrachtet, was wohlbemerkt Experten schon getan haben in verschiedenen Videos und Forenbeiträgen, ist nichts anderes als eine Täuschung, denn da wird mächtigst skaliert und getäuscht und die Leute meinen auch noch dazu "boah was für ein geiles Feature, sieht so mega geil aus", aber keine Ahnung haben von der Materie, hauptsache geil was !
Wer im Glashaus sitzt, sollte nicht mit steinen werfen. Du offenbarst hier nur, dass Du 0! Ahnung hast, was ein DLSS2.0 macht geschweigedenn wie es funktioniert.

Die Lederjacke hat euch wieder im Griff und ihr merkt es nicht mal.
Wenn man sich Deinen Text ansieht, hat eher Dich "irgendwas" im Griff.

Ich verstehe es nicht, wie kann man nur so dermaßen unvernünftig sein und das Denken komplett abschalten bei der ganzen Sache.
Sieh Dir Deinen Text an- Bestes Praxisbeispiel dafür.

Mir fehlen einfach die Worte.
Mir auch. Wie kann man in einem solchen Text solch eine unfassbare Konzentration an Platitüden raushauen kann mit dem besten Beispiel des Dunning- Kruger Effekts seit langem, ist mir wirklich unverständlich.
 
  • Gefällt mir
Reaktionen: Biervampyr, Flomek, Knito und 29 andere
frgntz schrieb:
Witzig ist, wie bei der Vorstellung immer wieder betont wurde, endlich die 1080ti zu vergraben. Der Leistungssprung reizt zwar echt, aber 1080ti kriegt man eigentlich im Moment nicht tot, ich liebe sie.
Die 1080Ti war und bleibt das Beast vor der Zäsur, sie war die GPU Queen of the Hill.

It's over.
Die Zäsur ist DX12 Ultimate, Raytracing. Die Zäsur ist DLSS, AI und ML, die Zäsur sind neue I/O Operationen sowie die ganzen Featuresets.

Da ist die 1080Ti schlicht weg raus. Sie hatte ihre Zeit und bleibt in Erinnerung als der Zenit pre Turing, pre Raytracing. :schluck:

Aber die nächsten fps und Technologie Gipfel kann sie nicht mehr mitgehen und im DX12 sieht sie jedes Mal und zunehmend älter aus; was sie da optisch im Rendering verliert wird, kann sie nicht mehr überschminken .
 
  • Gefällt mir
Reaktionen: xexex und hahaqp
Satan666 schrieb:
Eine 2080 hat auch nur 8GB RAM, selbst eine Super hat 8GB.
für 2021,2022,2023 zu wenig. 2080ti 11GB die hat noch Zukunft. Also alles über 500€ und unter 12GB kann NVIDIA behalten.
 
  • Gefällt mir
Reaktionen: 4to cka3al
Elwies schrieb:
Ne Grafikkarte für 700€ finde ich auch nen Vollschuss?
Aber das ist meine persönliche Meinung in Bezug auf mein Kaufverhalten, wer sein Geld da versenken will hat freie Bahn.
(Nichts altert schneller als eine Grafikkarte :confused_alt: )


Stimmt doch überhaupt nicht. Die 980ti hatte ich 5 Jahre und spiele liefen immer noch sehr gut.
Wer sich vor 1 jahr die 2080ti gekauft hat, wird ne 3000 nicht brauchen.. denn die langt für die nächsten 5 Jahre locker
Am besten geld lässt sich sparen indem man eine Grafikkarte über jahre ausnutzt und den quatsch mit 4k sein lässt.
 
Hayda Ministral schrieb:
Den Artikel nicht gelesen? Die Berechnung der Performance stammt von den gleichen Leuten die Dir schon die Hardwaredaten der GTX970 äußerst kreativ ins Gesicht gelogen haben.

DF hat mich bisher nicht belogen. Aber passt schon.
 
  • Gefällt mir
Reaktionen: adAstra und gartenriese
Psychodelik schrieb:
Man merkt die Lederjacke hat Panikschübe wegen der kommenden BIG-Navi und RDNA2 von AMD,

Panikschübe hat Nvidia sicher eher, weil sie wissen, dass sie die Nachfrage nicht bedienen können. Die Gamingforen stürzen sich hysterisch auf die Vorbestellungen.
Die 3 Ampere Karten werden die gesamten sales der Turing Flotte in 40% der Zeit übertreffen, so meine These.

"Panik" sollten da andere haben. Ich hoffe sehr auf einen RDNA 2 Konkurrenten.
 
  • Gefällt mir
Reaktionen: lkullerkeks und CrustiCroc
Ich hab aktuell nen RM 550W von Corsair mit einem 3700X (150W at max). Das sollte sich gerade noch so ausgehen mit der 3080 oder?

Ansonsten bräuchte ich als Triple Screen Simracer eine Karte mit 5-6 Monitor Anschlüssen, da ich den PC noch als normalen Desktop Rechner nutze.

Weiß jemand dazu was? Die FE haben ja alle "nur" 4 oder?
 
Nom4D schrieb:
Erfahrungswerte. Ich für meinen Teil bin immer noch megazufrieden mit der RX 590, die auch schon mittlerweile fast 2 Jahre alt ist. Und die auf 2560x1440 rennt wie Sau. Horizon Zero Dawn auf ultra bei durchschnittlich 80 Fps. Und die hat nur 210 Euro gekostet .... was aber nicht heissen soll, daß ich keine 719 Euro für eine neue Grafikkarte ausgeben könnte. Wenn ich das will, und brauche, dann mache ich
Was ein Blödsinn. Deine 580 schafft in HZD keine 80 FPS auf Ultra in WQHD. Aber kannste hier gerne weiter posten, glaubt dir keiner.
 
  • Gefällt mir
Reaktionen: adAstra, gartenriese und Hejo
Ich gehe stark davon aus das AMD diesmal einen richtigen Kracher auf den Markt bringt. Aufgrund dessen würde ich auf keinen Fall vorzeitig zu NVIDIA greifen und wir sollten auch richtige Benchmarks abwarten.

Der erste Eindruck ist natürlich phänomenal.
 
  • Gefällt mir
Reaktionen: Hercule Poirot und Benji18
Ben81 schrieb:
Man weiß nichtmal wie es laufen wird.

Bischer alles aufm Papier, AMD muss erstmal abliefern.

Wie soll es den laufen? Wird halt der Shader erweitert worden sein nachdem man 365G/sec an leistung angibt wirds schon ordentlich laufen, frage ist halt wie relevant das ganze wird in den nächsten 2 Jahren.

Das ist klar, meine Meinung dazu ist nach wie vor abwarten und tee trinken :)
 
Bin wirklich auf AMD gespannt.
nVidia hat ordentlich abgeliefert, auch wenn ich niemals ne GPU mit mehr als 250W TDP holen würde, vor Allem mit 8nm.
Am liebsten würde ich auf ein 10-12GB GPU umsteigen mit der Leistung der 3070 (Ti).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Benji18 und grtty
IV52 schrieb:
750 W no Name NT bei Verwendung eines nicht so sparsamen Prozessors (und Verwendung maximaler HDD/RAM usw.)
Persönlich würde ich die mit einem Qualität hochwertigen 550 W NT betrieben. Ich habe aber auch nur ein paar SSDs im Rechner.

habe aktuell ein I7-9700k mit 2080...plane Upgrade auf 3080(ti). werde vorsichtshalber von Corsair 650 W auf 850 W upgraden das Netzteil.
 
Excel schrieb:
ch keinen Grund, ein scheinbar sehr gutes Produkt wie die RTX 3000er günstiger anzubieten als eine zu erwartende starke Konkurrenz.

Das sind immer kühne Pauschalaussagen. Keiner von uns kennt den Deal, den Nvidia hat mit Samsung.
Evtl können sie hier einfach bei dem Absatz, den sie erwarten und angesichts des Deals, den sie beim Einkauf haben und in der Fertigung, diese Preise anbieten.

Für die AMD Releases hat Nvidia noch alle Möglichkeiten, wieder zu kontern: 3060, 3080Ti und/oder 3080 Refresh mit 20 GB VRAM etc.
 
Zurück
Oben