News GeForce RTX 3090 & 3080 & 3070: Finale Spezifikationen der Ampere-Grafikkarten bekannt

Steini1990 schrieb:
Also wenn die 3070 wirklich nur mit 8GB VRAM kommt, dann können Sie die behalten. 2 Generationen lang in dieser Leistungsklasse kein Upgrade zu bringen ist mehr als frech.
Doch ein Upgrade ist doch da....beim Preis. :D
 
  • Gefällt mir
Reaktionen: Unnu, fox40phil, russianinvasion und 6 andere
GERmaximus schrieb:
Indi Titel zählen nicht, er meinte sicherlich tripple A oder zumindest moderne Games.
Red Dead?
GTA5?
battlefield?
Ich rede schon von modernen Games, die ich so spiele. Nicht von Twrraria :D
GTA5 kein Problem. Forza Horizon 4 und sowas in der Art. Manche Spiele bringen dann eben nur 50-70fps, gibt es auch. Irgendwas ist ja immer, dafür hat man keine 1000€ für ne Grafikkarte ausgegeben.

GERmaximus schrieb:
mit einer 1080ti. Wie macht ihr das mit ner halb so langsamen Karte?
Halb so langsame Karte? Seit wann ist ne 1080ti doppelt so schnell? 🤔
In den meisten Spielen sind es bei WQHD eher so 50% die eine 1080ti schneller ist. DU kannst mir nicht erzählen, dass du da Probleme in UWQHD mit hast :D
Ich spiele ja selbst in 4K aufm TV hin und wieder. 60FPS schafft meine Vega da auch in FH4 auch Hoch. Doppelt so viel wie meine One X, wo ich auch RDR2 spiele.

Naja mehr Leistung kann sicher nicht schaden, aber zu sagen eine Vega oder RX5700 wäre zu schwach für WQHD halte ich fürn Gerücht. Die neuen Karten werden dann eher interessant um das neue Ziel 4K120 zu erreichen.
 
  • Gefällt mir
Reaktionen: Acedia23
Ich finde die angegebenen Taktraten niedrig. Aber evtl. macht das NV absichtlich um den Boardpartnern das Feld zu überlassen.. Palit scheint ja mit x Produkten zu planen - alle 100 MHz mehr en neuer Name..
 
Lübke82 schrieb:
Enthusiasten-Hardware kostet Enthusiasten-Preise?
Kaufen Enthusiasten neuerdings auch Nicht-Enthusiasten-Hardware, nur weil eine Marketing Abteilung mit im Gleichschritt marschierenden Fanboys behaupten, dass es Enthusiasten-Hardware wäre? Gibt es eine Din Norm für Enthusiasten-Hardware? Steht Enthusiasmus bei jedem Enthusiasten inhaltlich für den gleichen Enthusiasmus Definiert nicht jeder für sich selber was Enthusiasten-Hardware ist? Und sind Enthusiasten moralisch verpflichtet Enthusiasten-Hardware zu jedem Enthusiasten-Preis zu kaufen?
 
  • Gefällt mir
Reaktionen: fox40phil, Hardwarious, Atlan2101 und 4 andere
Also nach aktuellen Informationen ist der GA102 gleich groß wie der TU102 und hat knapp doppelt so viele Transistoren. Da wird schon entsprechend mehr Performance dabei raus kommen und das nicht nur bei Raytracing.

Preise sollen angeblich 1500$ für die 3090 und 800 für die 3080 sein, allerdings bezweifle ich, dass die Straßenpreise in nächster Zeit so weit unten liegen werden.

Taxxor schrieb:
@nagus Die 2080Ti war ja hier im Test mit den Taktraten dann auch schon bei 275W und es ging ja auch schon rum, dass Ampere bis 400W ziehen wird.

AMD war mit Navi ja sogar mal vorbildlich, die 225W 5700XT verbraucht real eigentlich eher 210W, die 185W 5700 nur 175

Das ist genau dieselbe Diskussion wie damals beim 9900K. Alle Tester haben im BIOS das Powerlimit auf 300 Watt gesetzt und nachher ganz schockiert darüber berichtet was für ein Hitzkopf das nicht ist.
 
GERmaximus schrieb:
Du hast Recht, bisher.
Doch der LG 850 ist für mich das Porno Panel schlechthin. 1ms gtg, Nano ips, 144hz und bei Prad als sehr gut bewertet. Dazu beide Sync Methoden.

Hatte ich tatsächlich 2x hier, der Glow war krank (und Kontrast auf TN-Niveau), ansonsten wirklich stabil (keine Schlieren, obwohl AO fehlt) zudem sind mir 27 Zoll mittlerweile zu klein (auch wenn 34 Zoll UW auch 27 Zoll in der Höhe entsprechen).

Zocke aber auch nur noch Overwatch als schnelles competitive Game...
 
Der Merowinger schrieb:
niemand interessiert sich für den stromverbrauch wenn man sich so eine karte holt. und sind wir mal ehrlich, die paar cent die man im jahr dann mehr für strom bezahlt juckt keine sau.

WAAAS SAAAGST DU? SPRICH BITTE ETWAS LAAUUUUTER! ICH KANN DICH SONST ÜBER DAS LÜFTERGERÄUSCH HINWEG, DAS EINEN STARTENDEN EUROFIGHTER NOCH ÜBERTRIFFT, NICHT HÖÖÖÖÖHREN...

Scherz beiseite. Mehr TDP -> mehr Wärme die weggekühlt werden muss. Mehr Wärme die weggekühlt werden muss -> mehr Lärm.
Wer sich über die billige Wohnung direkt neben dem Triebwerkstesstand des Eurofighter freut wird das kaum verstehen, es gibt aber Menschen die Wert darauf legen ein gutes Gehör zu besitzen und es auch zu behalten.

@Topic: Sehr gut, NV. Weiter so. Ich kaufe allerdings meine nächste Karte so wie die jetzige für die Zielauflösung FullHD solange bis ihr 4k@150W handhaben könnt. Das dürfte noch eine Weile dauern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu, Alex1966, Atlan2101 und 3 andere
Schon lustig. Zu jeder GPU Generation verwandelt sich das CB Forum zu teuer minimi Selbsthilfegruppe wo jeder mal ne runde jammern kann. Glaub der eigentliche Preis ist dabei fast egal. Es finden sich sicher bei jedem Preis genug
 
  • Gefällt mir
Reaktionen: Biervampyr, Hardware_Hoshi, tomasvittek und 5 andere
maxik schrieb:
Ach was, komm auf die dunkle Seite der Macht - G steht für gönnen :daumen:

Puuuhhh das kann man nun sehr schwer abschätzen.
1. Nvidia liefert mehr technik weil die wissen dass AMD was großes im Ofen hat
2. Nvidia weis dass AMD nichts ordnetliches liefert und kann den Enthusiast Markt ordentlich melken
Wette auf zweiteres. Erfahrung.
 
  • Gefällt mir
Reaktionen: MrNejo und maxik
Ich hoffe echt die 3070 wird mehr als 8gb haben. 8gb sind bei der nen witz.
Sehe 12gb als optimal für diese leistungsklasse. Wobei ich vermute nvidia rechnet schon mit den super karten und da gibts dann den guten Speicherausbau. Siehe 2060 und 2060s.
Selbst bei meiner 2070s werden die 8gb immer mal wieder knapp. Gut ich Spiele in uhd. Zwar kaum 60fps aber gsync regelt.
Dazu kommt ja nich das die 3070 mit der 1080 ti den boden wischen wird. Aber durch 8gb gebremst wird.
Auch find ich die 220w tdp nicht wirklich schön. Hoffentlich kann ma da hinterhet noch bisschen was manuell optimieren.
Ansonsten kann ich nur sagen warten wir die offizielle Vorstellung ab
 
  • Gefällt mir
Reaktionen: Ex3cuter
Beg1 schrieb:
Hatte ich tatsächlich 2x hier, der Glow war krank

Mach mich nicht schwach. Mein jetziges Panel hat fast nichts an Glow. So wenig das ich es googeln musste 😆.

Aber da muss ich sagen das bei sowas Eis kalt retourniere (der Händler die arme Sau)
 
RayAlpha schrieb:
Ist das ein Witz?
Nein. Wie jede Redaktion unterliegt auch CB einem NDA gegenüber nvidia, d.h. sie dürfen (natürlich) schreiben und das zitieren, was andere verzapfen, aber nicht das eigene Wissen der technischen Eckdaten publizieren. Wenn hier demnach in der Überschrift steht oder darin suggeriert wird, dass das die echten Spezifikationen sind, im Text aber im Konjunktiv geschrieben wird, der oder derjenige meint, dass ..., dann darf man das als das maximale "aus-dem-Fenster-lehnen" verstehen. D.h. Wolfgang und Co. wissen es, mittlerweile auch aus erster Hand, und bestätigen damit indirekt das zitierte 'Gerücht'. So läuft der Hase seit Jahr und Tag. Insofern: ist doch schön, dass es jetzt klar ist. ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu, fox40phil, Silverangel und 2 andere
nurfbold schrieb:
Unbefriedigend, wenn man auf eine 3080 mit mehr Speicher gehofft hat. Die Rohleistung der 3080 ist sicher mehr als ausreichend für 4k, der Speicher hingegen, je nach Spiel, nicht. Und das für vermutlich 800 € +. Als 4k User hat man eigentlich nur die Wahl, zur 3090 zu greifen oder zu warten, was AMD macht oder warten, bis die 3080 mehr Speicher spendiert bekommt. Wenn AMD was mit 16 Gigabyte und auf 3080 Niveau bringt, dann ist die Karte gekauft. Vorausgesetzt, die Raytracing performance kann mit NV mithalten, was leider eher unwahrscheinlich ist.
Man hat langsam das Gefühl, dass Nvidia das mit voller Absicht macht um eben die enthusiasten, die 4K zocken wollen, abzukassieren.
 
Heißt das, dass die aus Gerüchten stammende zweite Version der RTX 3080 mit 20GB Speicher nicht kommt?
 
Tobi86 schrieb:
Heißt das, dass die aus Gerüchten stammende zweite Version der RTX 3080 mit 20GB Speicher nicht kommt?

Nächstes Jahr als 3080 Super 20GB Not-Possible-Before-Edition.
 
  • Gefällt mir
Reaktionen: fox40phil, Hardwarious, Sturmflut92 und 3 andere
So viel vram. Da muss die GPU aber deutlich schneller sein damit das auch mal sinn macht. Bringt einem ja nix wenn die GPU schon bei 8, 10 oder 12Gb fülle auf 100% rödelt.

Vor den Preisen hab ich ehrlich gesagt bange. Egal was AMD da liefert. Auf jeden fall darf man gespannt sein auf die Tests. die 3090 schein ein biest zu sein. Mal sehen was bei rum kommt.

So oder so, wenn die um die 1k kosten, lass ich die eh links liegen. So wichtig hab ichs mit dem zocken dann auch nicht ^^
 
Ich will ein richtiges Gemetzel zwischen AMD und Nvidia so wie zu guten alten Zeiten, wenn auch vielleicht nicht mit der 3090 aber mit der 3080, für den Kunden wär es schon toll..

Zum Thema Stromanschluss ich dachte die haben nur noch der 12Poligen on Board und ein Adapter von 2x8 auf 12 sollte beiliegen...
 
Nahrungsmittel schrieb:
keiner wird dazu gezwungen die Karte zu kaufen aber wer die Leistung braucht für 4K ist indirekt dazu gezwungen die Preise zu zahlen oder die settings massiv runter zu schrauben.

4K braucht man nur, wenn man Geld damit verdient, auf welche Weise auch immer. Und wenn man nicht genug damit verdient, um eine entsprechende Grafikkarte zu bezahlen, dann sollte man sich nach einer anderen Erwerbstätigkeit umsehen.

Alles andere ist Hobby und da wird niemand gezwungen, für irgendwas Geld auszugeben. Ich finde Handys für > 1000€ auch absurd. Aber who cares? Kaufe ich mir halt ein günstigeres. Und wenn mir Grafikkarten für > 1000€ zu teuer sind (eigentlich liegt meine persönliche Schmerzgrenze schon bei 500€) und es mir 4K nicht wert ist, so viel Geld auszugeben, dann kaufe ich mir halt eine andere Graka. Genügend Auswahl gibt es ja.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Unnu, KlaraElfer, tomasvittek und eine weitere Person
Also meine Enthusiasten-Schmerzgrenze für eine einzelne Hardware-Komponente (Speicherkit zähle ich mal als eine Komponente) ist schon seit über zwei Jahrzehnten bei 1200 Talern. Die hab ich irgendwann mal für 32 MB (ja, MB) Ram bezahlt (noch in DM) und mir eigentlich vorgenommen es nicht schlimmer werden zu lassen. Aber naja, warten wir mal den Herbst ab 😵
 
  • Gefällt mir
Reaktionen: Mcr-King und poly123
Zurück
Oben