So interessant wie der berühmte Sack Reis in China. Solange man keine Karte normal und zu vernünftigen Preisen kaufen kann ist es leider so. Aktuell freu ich mich jeden Tag das meine 2080s funktioniert. Ein heutiger defekt bringt echt nur Ärger und Probleme...
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce RTX 3080 Ti: GPU-Foto und Screenshot machen heiß auf Mai
- Ersteller MichaG
- Erstellt am
- Zur News: GeForce RTX 3080 Ti: GPU-Foto und Screenshot machen heiß auf Mai
Ja, ich hätte eine zur UVP bekommen, ich hatte sie im Warenkorb und war am Checkout. Du kannst dir nicht vorstellen wie ich mich geärgert habe. Und mein Teamleiter wedelte mir noch blöd grinsend mit seiner Kreditkarte vor der Nase rum. Wenn wir uns nicht gut verstehen würden, hätte ich einen Teil meines Ärgers auf ihn übertragen.Shoryuken94 schrieb:Ouvertüre das tut wirklich weh. Hättest du sonst eine zur UVP bekommen?
Mal am Rande: ich war gerade im AMD - Onlineshop und habe aus Geigel mal das einzig verfügbare Produkt (Ryzen 7 5800x) in den Warenkorb gelegt.
Bevor das Produkt im Warenkorb landete öffnete sich eine Abfrage in der ich bestätigen sollte das ich kein Bot bin. Ist das noch jemand anderem aufgefallen oder ist das komplett neu auf der AMD-Seite? Kann das von den Kaufbots umgangen werden? Wird sich dadurch die Verfügbarkeit im AMD-Onlineshop langfristig verbessern? Fragen über Fragen.
Zuletzt bearbeitet:
GERmaximus
Rear Admiral
- Registriert
- Sep. 2015
- Beiträge
- 5.288
Metallmann schrieb:Welche Lücke soll diese Karte denn füllen? Bei Spielen ist die 3090 kaum schneller als die 3080... 10%....12%... das hat man mal locker per übertaktung rausgeholt.
bei Anderen Herstellern werden 7-10% nur über den Treiber raus geholt.
da braucht man keine 6800xt ti sondern nur den aktuellsten Treiber für die „ti“ Mehrleistung.
Kann mich an kein so unrundes lineup erinnern.
Laphonso
Vice Admiral
- Registriert
- Jan. 2012
- Beiträge
- 6.453
Du meinst in 15-18feidl74 schrieb:in 8 monaten kommen die next rtx karten,
kommt darauf an, wann 2022^^. trotzdem würd ich mir dann keine ti holen, bzw wird man wohl eh nur schwer eine bekommen^^Laphonso schrieb:Du meinst in 15-18
Zotac2012
Admiral
- Registriert
- Apr. 2012
- Beiträge
- 7.768
Dafür gibt es doch die RTX 3090 und da bekommst Du sogar noch 4GB obendrauf, somit hast Du dann 24GB und es ist wie Weihnachten für Dich!DeeZi schrieb:Mit nur 12GB absolut uninteressant für mich. Mit 20GB hätte ich mir diese geholt.
Im ersten Quartal 2022 könnte sich die Lage entspannen, vorher wohl kaum, bis dahin ist es ja auch nur noch ein Jahr!TodboT schrieb:Hoffentlich entspannt sich der GraKa Markt, ich will 1 Jahr nach erscheinen nicht 50-100% mehr zahlen sondern 10-20% unter UVP und da wären die 6900xt und 3080ti für 800USD halt schon gut.
Shoryuken94
Admiral
- Registriert
- Feb. 2012
- Beiträge
- 8.841
feidl74 schrieb:kommt darauf an, wann 2022^^
Naja Nvidia hat zumindest in den letzten 10 Jahren recht Konstant einen zwei Jahres Rythmus eingehalten bei den neuen Architekturen. Anfang 2022 erscheint eher unwahrscheinlich. Dann wären auch schon bereits erste wirkliche Leaks aufgetaucht, aber da ist es bislang ziemlich ruhig. Auch macht es für Nvidia relativ wenig Sinn. Das Ampere Lineup ist noch nicht mal voll ausgerollt und sie können aktuell jeden einzelnen Chip ohne Probleme verkaufen. Die Nachfrage ist nicht annähernd gedeckt. Jetzt vorschnell eine neue Architektur nachzuschieben erscheint da eher unwahrscheinlich. Vor Spätsommer 2022 würde ich mir keine Hoffnung machen.
GeForce RTX 3080 Ti: GPU-Foto und Screenshot machen heiß auf Mai
Nope. Nope. Nope.
Heiß? Wann? Vielleicht im Mai 2023. Dann aber so oder so kalt. Künstliche Beschneidung um "den Kunden" aka "Gamer" oder "User" ruhig zu stellen ist einfach nur Bullshit.
Nope. Nope. Nope.
Heiß? Wann? Vielleicht im Mai 2023. Dann aber so oder so kalt. Künstliche Beschneidung um "den Kunden" aka "Gamer" oder "User" ruhig zu stellen ist einfach nur Bullshit.
CloudConnected
Commodore
- Registriert
- Mai 2005
- Beiträge
- 4.484
Die 3080 Ti ist schon attraktiv zu dem Preis wenn man sie dafür bekommt
3090 mit halben RAM.
Denke die wird in der Praxis nicht langsamer sein.
3090 mit halben RAM.
Denke die wird in der Praxis nicht langsamer sein.
Laphonso
Vice Admiral
- Registriert
- Jan. 2012
- Beiträge
- 6.453
Ich habe noch etwas von PCGH Raff gefunden im Forum:Fighter1993 schrieb:hier sieht das alles schon ganz anders aus
Die RTX 3090 ist für Ultra HD ohne jeden Zweifel die schnellste Grafikkarte, dazu muss man nicht mal selektieren. Ampere braucht die zusätzlichen Pixel, um sich optimal auszulasten, und verfügt außerdem über genug Off-Chip-Speichertransferrate. Das ist mittlerweile die einzige Rasterdisziplin, die Nvidia noch klar für sich beanspruchen kann.
Wären die GA102-GPUs und ihr GDDR6X nicht derart stromdurstig, wäre der Abstand noch größer - aber das kann man zumindest durch beherztes GPU-Undervolting entschärfen.
In den 3DCenter Tests führt die 3090 zude den Performance Index unter 4K deutlich an vor der 6900XT.
AC Valhalla fehlte da und ist die eine Ausnahme hier.
Aber wie gesagt, wir reden hier von wenigen fps und RTX off ist es fast Jacke wie Hose.
Zum Punkt und Bezug in diesem Thread: Das Ganze macht die 3080Ti auf dem Papier also sehr attraktiv, rein technisch gesehen .
Fighter1993
Vice Admiral
- Registriert
- Juli 2009
- Beiträge
- 6.816
Ich möchte ja nur das die Leute sich Gedanken darüber machen, was Nvidia so die letzten Jahre abgezogen hat.
VRAM, Preiserhöhung bei 2080TI, Gsync etc
Es gibt ja noch einen 2 Player am Markt.
VRAM, Preiserhöhung bei 2080TI, Gsync etc
Es gibt ja noch einen 2 Player am Markt.
Zuletzt bearbeitet:
MMIX
Lt. Junior Grade
- Registriert
- Dez. 2020
- Beiträge
- 509
Da gibt es aber immer eine zweite Seite der Medaille.... Wenn Nvidia in den letzten Jahren nicht gewesen bzw nicht so gewesen wäre, wäre Gaming, aber vor allem auch professionelle Bearbeitung ganz schön langweilig gewesen oder eher ganz schön langsam, hinzu kommen halt Features die man bei Nvidia in der Vergangenheit als erster nutzen konnte, selbst wenn man aktuell DLSS Mal außen vor lässt. Das einzige Feature was AMD vor Nvidia hatte und Nvidia dann sozusagen kopiert hatte und mir gerade einfällt ist Eyefinity, worauf Nvidia erst 3D Vision Surround einführte. Sonst gab es Features meines Wissens nach als erstes immer bei Nvidia, sei es daß mittlerweile gestorbene 3D Vision, Hardware Physikberechnungen, neue AA Features und Modis, DSR, VRR, etc. Falls ich falsch liege kann man nicht gerne korrigieren.
Und wegen VRAM hatte ich mit Nvidia seit der GeForce 7 keinerlei Probleme, du meinst mit VRAM wahrscheinlich die 970 GTX? Da stimme ich dir zu, das war schon mies....
Und wegen VRAM hatte ich mit Nvidia seit der GeForce 7 keinerlei Probleme, du meinst mit VRAM wahrscheinlich die 970 GTX? Da stimme ich dir zu, das war schon mies....
Fighter1993
Vice Admiral
- Registriert
- Juli 2009
- Beiträge
- 6.816
Sogar schon die GTX 570, die hatte nur 1280MB Battlefield 3 was Not amused, hätte ich doch die 2GB HD 6970 genommen wäre alles gut gewesen.MMIX schrieb:Und wegen VRAM hatte ich mit Nvidia seit der GeForce 7 keinerlei Probleme, du meinst mit VRAM wahrscheinlich die 970 GTX? Da stimme ich dir zu, das war schon mies....
Die GTX 670 mit 2GB hat das Game nämlich so weg gesteckt, klar die war etwas schneller, aber die Rohleistung der 570 hätte auch gereicht.
Laphonso
Vice Admiral
- Registriert
- Jan. 2012
- Beiträge
- 6.453
Wäre die Verfügbarkeit nicht so eine Katastrophe, könnten wir positiv festhalten, dass wir dank AMD und Nvidia jetzt Grafikkarten mit einer Leistungsfähigkeit im Angebot haben, die einen Umstieg von Full HD auf 1440p, UWQHD und/oder 4K leichter machen denn je.
Letztlich nach kann man überhaupt nichts falsch machen, egal für welchen Anbieter man sich entscheidet, sofern man jetzt einen neuen Monitor kauft auf 27 Zoll, 34 Zoll oder einen Diagonal-Formfaktor für 4K wählt.
im Kollegen und Freundeskreis konnte ich jetzt auch die letzten überzeugen, die gezögert haben von ihrem geliebten Full HD umzusteigen, weil sie da bestimmte Qualitätssettings und Frame Meilensteine garantiert haben wollten.
Letztlich nach kann man überhaupt nichts falsch machen, egal für welchen Anbieter man sich entscheidet, sofern man jetzt einen neuen Monitor kauft auf 27 Zoll, 34 Zoll oder einen Diagonal-Formfaktor für 4K wählt.
im Kollegen und Freundeskreis konnte ich jetzt auch die letzten überzeugen, die gezögert haben von ihrem geliebten Full HD umzusteigen, weil sie da bestimmte Qualitätssettings und Frame Meilensteine garantiert haben wollten.
MMIX
Lt. Junior Grade
- Registriert
- Dez. 2020
- Beiträge
- 509
Fighter1993 schrieb:Sogar schon die GTX 570, die hatte nur 1280MB Battlefield 3 was Not amused, hätte ich doch die 2GB HD 6970 genommen wäre alles gut gewesen.
OK, lange ist es her. Musste nochmal nachschauen ob das mit dem VRAM der 570 auch wirklich stimmt 🤣 . Aber Mal ehrlich, solche Ausnahmefälle gab es bestimmt auch Mal bei ATI bzw AMD, wo eine Radeon Mal zu wenig VRAM für ein Game hatte - könnte ich mir vorstellen. Auch ATI bzw AMD war nicht immer großzügig bei VRAM.
Aber man sollte aktuell bei Nvidia halt auch bedenken, dass in der knappen und angespannten Chipsituation die wir nun Mal haben, gerade GDDR6X sehr knapp ist, selbst normaler GDDR6 ist knapp und Nvidia wollte und musste ja wegen ihrer Architektur auf GDDR6X setzen. Das spürt man halt jetzt deutlich. Was sollen die machen? Eine 3080 Ti mit 20 GB (bei dann identischen Speicherinterface wie 3080) anbieten, wenn sie dann nur die Hälfte der Karten produzieren können als wie wenn eine Ti "nur" mit 12 GB anbietet? Dann nehme ich lieber als Nvidia die 12 GB Version und verkaufe doppelt so viele davon (in ohnehin schon kleinen Mengen wegen der sehr angespannten Liefersituationen aktuell). Was bringt dann eine 20 GB Version wenn dann kaum welche in den Markt kommen können? GDDR6X ist halt sehr knapp neben diversen anderen Bauteilen. Ich denke wenn Corona nicht gewesen wäre, hätte die 3080 Ti 20 GB bekommen.
Fighter1993
Vice Admiral
- Registriert
- Juli 2009
- Beiträge
- 6.816
So siehts aus, aber ich denke, es hat sich gezeigt am besten fährt man wenn man das Speicherinterface immer so konzipiert das man mit den Gängigen Arbeitsspeicher RAM größen mit geht 2,4,8,16GB.
Das hat bis jetzt immer am besten funktioniert.
Ich will auch behaupten, daß Leute die schon sehr früh 12GB RAM im Rechner hatten wo 8GB gerade der Mainstream geworden ist haben davon quasi nie etwas gehabt, den dann kam 16 GB. Rein aufs zocken bezogen.
Genauso wie die 3090 mit ihren 24GB in "normaler Vram Auslastung" irgendwann ihre Rohleistung fehlen wird um die ganz zu nutzen. (Ja ich weiß man bekommt auch heute die 24GB voll aber mit einem Game out of the Box @1440p ohne Mods Upscaling etc wird das doch sehr schwer.
Aber kla ist ein nice to have, ich würde es auch nehmen.
Das hat bis jetzt immer am besten funktioniert.
Ich will auch behaupten, daß Leute die schon sehr früh 12GB RAM im Rechner hatten wo 8GB gerade der Mainstream geworden ist haben davon quasi nie etwas gehabt, den dann kam 16 GB. Rein aufs zocken bezogen.
Genauso wie die 3090 mit ihren 24GB in "normaler Vram Auslastung" irgendwann ihre Rohleistung fehlen wird um die ganz zu nutzen. (Ja ich weiß man bekommt auch heute die 24GB voll aber mit einem Game out of the Box @1440p ohne Mods Upscaling etc wird das doch sehr schwer.
Aber kla ist ein nice to have, ich würde es auch nehmen.
MMIX
Lt. Junior Grade
- Registriert
- Dez. 2020
- Beiträge
- 509
cypeak schrieb:verfügbarkeit, preis...irgendwie ist die aktuelle graka generation gänzlich uninteressant...wer da bei 12gb vram die 1000 (!!) euro als fair oder interessant bewertet, der hat es einfach nicht besser verdient.
Wenn ich das richtig interpretiere, wäre für dich eine Karte mit 16 GB VRAM und 1.000 Euro dann fair? Ernsthaft? (Wenn ich das wie gesagt richtig von dir interpretiert habe)
Laphonso
Vice Admiral
- Registriert
- Jan. 2012
- Beiträge
- 6.453
NIEMAND findet das "fair" oder "angemessen".cypeak schrieb:verfügbarkeit, preis...irgendwie ist die aktuelle graka generation gänzlich uninteressant...wer da bei 12gb vram die 1000 (!!) euro als fair oder interessant bewertet, der hat es einfach nicht besser verdient.
Das Dilemma ist, dass diese Karten weiterhin und ausnahmslos gekauft werden
1.) von den Scalpern
2.) von den Minern
3.) durch das Corona Stimulus Geld in den USA
4.) durch diejenigen, die durch Corona "ersparte" Freizeit und Urlaubsausgaben und damit das Geld "übrig" haben
5.) von denen, die die Schnauze voll haben und bereits z.B. Turing übersprungen haben und nicht mehr warten wollen, bis Ihr neues System fertig ist.
Ich gehöre zum Kreis Nummer 4.) wie alle in meinem Umfeld, die sich eine 3080, 3090 und 6900XT und den 5900x oder 5950x gekauft haben.
Das Reise/Urlaubsgeld/Freizeitgeld für Aktivitäten summmierte sich, und dann ist es die Luxussituation "Wofür soll ich das sonst ausgeben, wenn nicht für meine Hobbys, wenn eines davon derzeit nicht mögliuch ist wie das Verreisen, am Wochenende unterwegs sein etc"
Aus diesem Grunde kaufen die Leute für 1000, 2000 oder mehr Euro und Dollar die GPUs, weil das Geld durch den Corona Wahnsinn "da" ist und man sowieso seit 1 Jahr zu Hause hockt, also geht das ins Entertainment oder in Haus, Wohnung, Garten, Hobbykeller etc.
Die 3080Ti wird auch nonstop ausverkauft sein, der Rest ist begrenzt für mindestens den UVP Faktor 2 bei den Händlern oder eben auf ebay. Also alles wie seit Herbst 2020, unverändert.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 177
- Aufrufe
- 43.644
- Antworten
- 21
- Aufrufe
- 6.751
- Antworten
- 100
- Aufrufe
- 14.755
O
- Antworten
- 868
- Aufrufe
- 301.770
- Antworten
- 72
- Aufrufe
- 12.132