News Nvidia GeForce: RTX 3090, 3080 & 3070 mit viel mehr Leistung ab 499 €

nospherato schrieb:
Wie gesagt: Die 3080 ist für Neukäufer sehr gut... Für Besitzer einer 2080ti@oc langweilig.

Du hörst dich an wie ne Schallplatte mit Sprung. Dabei hast du sogar recht, nur stimmt deine Behauptung nicht wenn du 2080ti@oc gegen 3080@oc vergleichen würdest und jemand der eine Custom Wasserkühlung in seinem PC hat, wird sich keine 3080FE Kaufen und sie mit 1,7Ghz und Luftkühlung betreiben.

Was du auch vergisst, die 3080 und die 3090 basieren auf dem gleichen Chip. Dein Vergleich mit 2080 und 2080ti hinkt auch an dieser Stelle gewaltig.
 
  • Gefällt mir
Reaktionen: KlaraElfer und gr1nd
xexex schrieb:
Du hörst dich an wie ne Schallplatte mit Sprung. Dabei hast du sogar recht, nur stimmt deine Behauptung nicht wenn du 2080ti@oc gegen 3080@oc vergleichen würdest und jemand der eine Custom Wasserkühlung in seinem PC hat, wird sich keine FE Kaufen und sie mit 1,7Ghz und Luftkühlung betreiben.
Schon cool wenn man schreibt man vergleicht oc vs stock und es wird später gesagt : Wie jetzt? oc vs stock? Ne geht nicht!
Ansonsten:
Nur her mit den 3080@oc Ergebnissen.. Bis dahin vergleiche ich, was da ist.
Und nachdem du nach wie vor auf deine Behauptungen nicht weiter eingehst war das nun für mich mit einem Diskussionsversuch mit dir :)
 
nospherato schrieb:
Für Besitzer einer 2080ti@oc langweilig.
wenn einem 30% mehrleistung egal sind ja sonst nicht.

Für mich hörst du dich so an das du mit allen mitteln deine veraltete ti verteidigen willst die noch dieses Jahr von einer non TI 3080 um min 30% geschlagen wird ja sogar warscheindlich von der 3070 für 500€ in Grund und Boden gestampft wird :evillol:
 
nospherato schrieb:
Schon cool wenn man schreibt man vergleicht oc vs stock und es wird später gesagt : Wie jetzt? oc vs stock? Ne geht nicht!

Du vergleichst 2080ti@oc mit 3080 und behauptest die 3080 wäre langweilig ohne jegliche OC Resultate zu kennen. Den schiefen Vergleich hast du ganz alleine aufgestellt, weshalb auch die Behauptung ne krumme Basis hat.
 
  • Gefällt mir
Reaktionen: ThirdLife, KlaraElfer und gr1nd
  • Gefällt mir
Reaktionen: gr1nd
akuji13 schrieb:
Ich spiele weder 3DMark, noch Firestrike, noch vergleicht man seine eigenen Werte mit denen eines anderen.
Man vergleicht verschiedene Karten auf exakt dem gleichen System.
Wie soll ich denn Werte einer 2080ti fe vergleichen wenn ich keine habe? Selbst wenn ich das powertarget, Basistakt, usw. alles exakt einstelle stellt die zusätzliche Kühlung immer eine Mehrleistung gegenüber der fe dar.

Aber da du Spiele willst (CB Benchmarkszene) :
WQHD spiele ich, daher auch Bench in der Auflösung
https://www.computerbase.de/2020-08/horizon-zero-dawn-benchmark-test/
CB: avg 77,3fps | p0,2 62,5fps
meiner: avg 113,3 fps | p0,2 90,1fps

-> avg 147% | p0,2 144%

Edit: Ingame-Details identisch zur CB wqhd Messung.

(Messung als Screenshot; es fehlen 0,2sek, da man die ja weg schneidet; die Aktivierung der Messung verursacht immer einen kleinen peak)
https://ibb.co/vjnTWQh

Und was sagt uns das? Unabhängige Tests von CB und Co. abwarten, denn je nach Spiel können die Ergebnisse extrem aussehen, auch jetzt schon. Vor allem ohne Aussage von Details!
(In dem Fall Patchstand, der laut Patchnotes bis zu 10% Mehrleistung darstellen kann! Also das Ergebnis stark verfälschen kann! )
 
Zuletzt bearbeitet:
Supermax2004 schrieb:
:affe:
gr1nd schrieb:
Was hätte Nvidia denn davon? Mit der 3090 machen sie mehr Umsatz und vermutlich auch Marge. Da wäre es ein klügerer Schachzug, die 2080ti User zur 3090 zu lenken.
Ergänzung ()

IMHO ist das Problem der 3080 das sie mit dem GA102 den "falschen" Chip hat. Normaler weise haben die 70er und 80er den gleichen und die Ti den "großen". Also 970 und 980, 1070 und 1080 und 2070 und 2080 die gleiche Basis. Jetzt ist NVIDIA aber genötigt den "großen" Chip, der für die Ti/tan* vorgesehen war, auch für die "kleine" 3080 zu bringen. Damit ist die 3080 so überpowert das man ihr u.a. den Speicher brutal wegkürzen muß damit sie wenigstens 20% Abstand zur Ti ,äh 3090 hält. Die 3080 müsste eigentlich den GA104 im Vollausbau und nicht den den GA102 haben. Warum macht NVIDIA diesen Move? Als einzigen Grund kommt mir AMD mit BigNavi da in den Sinn. Anscheinend erreicht oder übertrifft BigNavi den GA104 (3070/ex3080) so das man gezwungen ist den fetten GA102 schon auf der 3080 zu verbauen um AMD nicht vorbei ziehen zu lassen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Visionmaster
Nekkepenn schrieb:
Anscheinend erreicht oder übertrifft BigNavi den GA104 (3070/ex3080) so das man gezwungen ist den fetten GA102 schon auf der 3080 zu verbauen um AMD nicht vorbei ziehen zu lassen.
Bist du Hellseher ansonsten verlink bitte mal die Quelle für die Aussage
 
Nekkepenn schrieb:
IMHO ist das Problem der 3080 das sie mit dem GA102 den "falschen" Chip hat. (........................)

Ein 104er im Vollausbau in der 3080 würde Nvidia dann den 3080-Super-Refresh nehmen, bzw. man müsste immer noch einen runterkastrierten 102er verwenden. Dann hätte der 104er als Kastrat schon mehr Leistung haben müssen, um besser als die spekulierte AMD-Konkurrenzkarte zu sein und um als Vollausbau im Super-Refresh zu sein. Vergleiche mit 2080 und 2080S. Der ersten Version wurden von 3072 Shadern ca. 128 wegkastriert.

Die "billigen" Preise könnten ja unter Anderem auch mit guten AMD-Grafikchips begründet sein, nebem gutem €-$-Wechselkurs und neben den neuen Konsolen.
 
Nekkepenn schrieb:
IMHO ist das Problem der 3080 das sie mit dem GA102 den "falschen" Chip hat. Normaler weise haben die 70er und 80er den gleichen und die Ti den "großen".

Finde lustig wie man Anhand von Vorgängern solche Sachen als gegeben sieht und die Titan mit Vollausbau erwartet und eine x80Ti als den einzigen Anspruchshalter für den großen Chip sieht. Es ist doch totaler Blödsinn, vor allem wenn man bedenkt, dass Nvidia großes Geld mit den Quadro GPUs verdienen wird und alles was dann in die Geforce Karten verbaut ist je nach Sichtweise Abfall aus dieser Produktion ist.

Welchen Chip man in welcher Karte verbaut hängt natürlich auch von der erwarteten Leistung ab, aber vor allem von dem gesamten Portfolio, von dem wir gerade nur einen Teil kennen. Am Ende zählt für Nvidia doch, möglichst alle Chips möglichst teuer an den Mann/Frau zu bringen.

Vielleicht geht man von schlechten Yields aus, weshalb man nun die großen Chips in 3090 und 3080 verwurstet und sich die Titan spart. Vielleicht wird man diesmal 3070, 3060 und 3050 auf dem kleinen Chip aufbauen und hat deshalb schon genug "Verwurstungmöglichkeiten" für den kleinen Chip. Letztendlich ist es für den Käufer absolut egal, was da unter der Haube nun läuft.
 
  • Gefällt mir
Reaktionen: gr1nd
@xexex
Schön das es dich belustigt wie NVIDIA bisher agiert hat.
Hektor26 schrieb:
Bist du Hellseher ansonsten verlink bitte mal die Quelle für die Aussage
Ja ich bin Hellseher, das darf aber keiner wissen. Dir sind Formulierungen wie "Anscheinend" und "IMHO" unbekannt ? Volkstümlich nennt man es spekulieren.
 
Streitet ihr euch schon über Leistungsvergleiche die es noch garnicht gibt?
Jetzt wartet doch einfach ab, dann wissen wir wieviel an der 3080 Leistung dran ist.

Sicher ist doch, es gibt für ca. 700€ nun deutlich mehr als vorher. Wieviel, werden unzählige Test zeigen.
 
  • Gefällt mir
Reaktionen: .Sentinel., Andybmf und xexex
Nekkepenn schrieb:
Schön das es dich belustigt wie NVIDIA bisher agiert hat.

Hat Nvidia "bisher" so agiert? War eine x90 Karte nicht bisher eine mit zwei GPUs? Wieso gab es gar keine GTX680Ti? Woher kommen denn plötzlich die Super Karten? Sorry aber wie man seine Produkte letztlich nennt und aus welchen Chips man welche Karten baut, entscheidet nicht was man bisher gemacht hat, sondern die Marktsituation und die Überlegungen womit man wie das meiste Geld verdienen kann.
 
  • Gefällt mir
Reaktionen: KlaraElfer, Sophisto und Snoopy12345
Oh weia... wie erklärst du dir nun, dass das bei der 700er Serie auch nicht so war?
Zur Erinnerung: 770(ti): GK104
780(ti) GK110
Titan(Z): (2x)GK110

Oder gar bei der 600er Serie... Da hatten 670, 680 und 690 den GK104. Und was sagt und das jetzt?
Ergänzung ()

Nekkepenn schrieb:
Warum macht NVIDIA diesen Move? Als einzigen Grund kommt mir AMD mit BigNavi da in den Sinn. Anscheinend erreicht oder übertrifft BigNavi den GA104 (3070/ex3080) so das man gezwungen ist den fetten GA102 schon auf der 3080 zu verbauen um AMD nicht vorbei ziehen zu lassen.
Spekulatius. Am 28.10. wissen wir mehr. Bis dahin wird Nvidia wohl schon recht viele Einheiten verkauft haben. Wenn AMD wirklich was hätte, würden sie nicht so lange warten und sich das entgehen lassen.
 
Zuletzt bearbeitet von einem Moderator:
Die wissen das viele warten werden. Und alle Early Adopter wollen eh ne RTX, das weiß AMD auch. Vielleicht sind sie einfach noch nicht so weit mit ihrer Keynote. Nur weil Nvidia vorlegt, heisst das noch lange nicht, dass AMD sofort springen muss. Vielleicht hauen die auch sowas von einer Karte raus, das am 28.10 alle ihre 3080 abstoßen wollen, wir werden sehen.
 
Mucho79 schrieb:
Vielleicht hauen die auch sowas von einer Karte raus, das am 28.10 alle ihre 3080 abstoßen wollen, wir werden sehen.
Klar, bei dem, was die beiden jeweils an Geld für Forschung ausgeben ist es ja äußerst wahrscheinlich, dass die RX6xxx die 3080 sowas von alt aussehen lässt ;)
Wenn AMD wirklich etwas Fettes hätte, hätten sie längst gekontert.
 
  • Gefällt mir
Reaktionen: Ashnacl
Nekkepenn schrieb:
IMHO ist das Problem der 3080 das sie mit dem GA102 den "falschen" Chip hat.
Sie hat m.M.n. zum ersten mal seit der GTX 580 den richtigen Chip. Kepler wurde ja mit der 680/780 Serie zwei mal abgemolken, obwohl der Big Chip schon vorher existierte. Seit her gab es nur noch Midrange x80 Karten. Du scheinst dich schlicht daran gewöhnt zu haben.
 
  • Gefällt mir
Reaktionen: Andybmf
GTX580 -> GF110, Vollausbau
GTX480 -> GF100, leichtes Kastrat
GTX470 -> GF100, noch mehr Kastrat
Hatte sogar mal die 70er-Karte den großen Chip.
 
  • Gefällt mir
Reaktionen: ampre und OZZHI
Zurück
Oben