c2ash
Lt. Commander
- Registriert
- Dez. 2006
- Beiträge
- 1.598
Du hast es leider nicht verstanden.RAZORLIGHT schrieb:Er hat doch explizit WEIHNACHTSGESCHÄFT geschrieben...
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Du hast es leider nicht verstanden.RAZORLIGHT schrieb:Er hat doch explizit WEIHNACHTSGESCHÄFT geschrieben...
Laphonso schrieb:ie 7900er Customs werden so 1300-1500 Euro kosten und die4080er customs so 1700 bis 2000 Euro.
Ich muss schon lachen, während ich das schreibe, das sind so kranke Preise 🤣
Zunächst einmal kann es Nvidia eigentlich egal sein, ob sie nun die neuen 4000er oder die 3000er Karten verkaufen, trotzdem haben sie mit der 4090 nun gut zwei und mit der 4080 einen Monat den Markt für sich alleine und haben passend zum Weihnachtgeschäft aktuelle Produkte.RAZORLIGHT schrieb:Würde Sinn machen, wenn die Lager voll mit Lovelace wären, aber Nvidia will Ampere loswerden
Hm ja aber davon sind nicht viele in Deutschland angekommen, hier waren sie ja mitunter binnen Minuten ausverkauft.Laphonso schrieb:Das liegt einfach daran dass die 4090 Verkaufserwartungen komplett gesprengt wurden international.
Trotz des Preises ist die 4090 Nachfrage der komplette Wahnsinn, das Angebot war vorhanden:
https://wccftech.com/nvidia-has-shi...us-for-geforce-rtx-4090-graphics-card-so-far/
100.000 Units 4090er gingen in den Handel . WTF.
Ich habe gerade ein Déjà-vu.Taxxor schrieb:Raus kamen 54% also ist sie mit 300W nur noch 45% schneller als eine Stock 6950XT.
Weil AMD das bisher immer so gemacht hatte.Taxxor schrieb:Du vergleichst für die Perf/W nicht die gleiche Wattzahl sondern du vergleichst die Karten so wie sie auf den Markt kommen.
Die können labern was sie wollen. Am Ende entscheide ICH was ich kaufe mit meinem Geld. Mich interessieren auch nur harte Fakten und Messungen die ich mir am liebsten von mehreren Seiten hole (wie immer an der Stelle eine Hoch auf das 3D Center und ihre Launch Reviews um sich ein umfassendes Bild zu machen).CrustiCroc schrieb:Phil findet die Vorstellung unverschämt und nichtssagend.
Raff ist Sinngemäß vom Leistungssprung in 2 Jahren geradezu enttäuscht.
Nur um das mal einzuordnen.
Es gibt noch 4090er, jedoch scheint vorallem die Strix sehr begehrt zu sein.Blumentopf1989 schrieb:Hm ja aber davon sind nicht viele in Deutschland angekommen, hier waren sie ja mitunter binnen Minuten ausverkauft.
Ich hab eher das Gefühl, dass da wieder der Praktikant die Messungen und Folien machen sollte und der nicht wusste, was er da wie misst.Taxxor schrieb:Daher wundert es mich auch, warum AMD es so komisch gemacht hat, man hat die PErformance überall mit der 6950XT verglichen, nur für die PErf/W ist man auf die 6900XT gegangen.
Ach, das mit den Experten ist immer so eine Sache. Ein Journalist kann auf seinem Gebiet ein Experte sein, er muss es aber nicht.Dai6oro schrieb:Das mach ich dann schon selbst da brauch ich auch keinen "Guru".
Alle MSI und Asus Karten, dazu die Aorous von Gigagyte, die anderen sind eher unbeliebt.Syrato schrieb:Es gibt noch 4090er, jedoch scheint vorallem die Strix sehr begehrt zu sein.
@Laphonso da wir gerade eine 4090 suchen. Weshalb bevorzugst du die Strix?
Laphonso schrieb:100.000 Units 4090er gingen in den Handel . WTF.
EINHUNDERTTAUSEND. Mindestens.
Ich kann dir nicht genug danken für deine Erklärung. Leider bilden sich Gegner von innovativen Entwicklungen nicht genug mit der Materie fort und schalten für 1 min. RT ein, merken kaum einen Unterschied- Ergo RT ist doof und frisst nur Ressourcen.RogueSix schrieb:Dies ist komplett falsch und erstaunlich, dass dieser Unsinn immer noch wiederholt wird. Ray-Tracing ist kein "Gimmick", sondern die Renderingtechnik der Zukunft, auch wenn dies noch lange dauern wird bis wir so weit sind, dass RT das Rasterizing ersetzen kann.
Um es hoffentlich mal etwas anschaulich zu erklären, auch wenn ich fürchte, dass dies bei Leuten, die RT immer noch für ein "Gimmick" halten, vergebene Liebesmüh ist:
Ray-Tracing ist die Simulation sichtbaren Lichts. Was wir als Menschen sehen, ist sichtbares Licht. Das kann man ganz einfach nachvollziehen, gerade jetzt in der dunklen Jahreszeit, wo es früh dunkel wird.
Stell Dich nachts in ein Zimmer und schau Dich um, dann schalte das Licht aus. Zack. Alles dunkel und Du siehst "nichts" mehr.
Warum? Sind die Gegenstände und der Inhalt des Zimmers magisch verschwunden? Nein. Es strahlt nur kein Licht mehr und es werden keine Photonen mehr von den Gegenständen und der Umgebung auf Deine Netzhaut reflektiert. Das sichtbare Licht ist weg.
Wir Menschen benötigen eine bestimmte Menge sichtbaren Lichts, um Dinge zu sehen. Dieses Licht besteht aus Strahlen (rays), die von der Umgebung -wie beschrieben- reflektiert werden. Wie wir die Dinge sehen, wird durch zahlreiche Faktoren beeinflusst, weil die Strahlen in den seltensten Fällen einfach in einer geraden Linie auf unser Auge treffen. Das ist nur der Fall, wenn man direkt in die Lichtquelle glotzt, was gerade bei der Sonne das Prädikat besonders wenig empfehlenswert verdient .
Man könnte nun aber jeden Lichtstrahl von der Entstehung zu dessen Auftreffen auf unser Auge zurückverfolgen (englisch "trace" = Spur/Verfolgung usw.).
Und zack sind wir beim Ray-Tracing, wenn wir nun sichtbares Licht bzw. dessen Strahlen verfolgen und dieses Licht möglichst naturgetreu simulieren.
Es dürfte nun vielleicht klar sein, warum hierin der "heilige Gral" der Grafikprogrammierung liegt. Bisher muss man extrem aufwendig die Realität am Computer nachbilden, sich vieler Tricks behelfen und Lichtquellen manuell setzen usw. etc. pp.
Mit Ray-Tracing wird es irgendwann (dauert vermutlich noch das eine oder andere Jahrzehnt, aber man muss ja klein anfangen wie jetzt ) möglich sein, dass man einem Programm einfach bestimmte Variablen vorgibt, z.B. ein Zimmer oder eine Landschaft und eine Uhrzeit und das Programm rendert per Ray-Tracing vollautomatisch dieses Zimmer inklusive der korrekten Beleuchtung, Schattenwurf usw. alles komplett originalgetreu so als ob sich ein menschliches Auge in der virtuellen Realität befinden würde, welches durch das reflektierte Licht diese Umgebung wahrnimmt.
Da die Echtzeitberechnung von sichtbarem Licht, also "rays", extrem rechenintensiv ist, müssen wir uns anno 2022 noch damit zufriedengeben, dass wir Lichtquellen und deren Effekte auf die Umgebung nur sehr partiell abbilden können, z.B. die Reflexion von Licht an spiegelnden Objekten oder der Schattenwurf.
Mit der Zeit und mit zunehmender Rechenleistung wird Ray-Tracing aber immer interessanter und wichtiger werden. Es ist der feuchte Traum eines jeden Entwicklers, wenn man die "global illumination" (also Lichtquellen) durch Ray-Tracing komplett ersetzen könnte, denn das würde pro Spiel alleine schon viele tausende Mannstunden an Arbeit einsparen.
Ich hoffe doch sehr, dass nun eventuell endlich klar geworden sein könnte, warum Ray-Tracing kein "Gimmick" ist und warum es "here to stay" ist. Wenn nicht vorher irgendwelche Wunder mit Quantencomputing passieren, dann wird Ray-Tracing im klassischen Computing eines Tages hoffentlich wirklich der heilige Gral der Grafikprogrammierung werden, den sich die Entwickler seit Anbeginn der Grafikprogrammierung erhoffen (die Grundidee von RT ist ja so alt wie die Programmierung an sich, also die Hoffnung existiert schon seit Jahrzehnten) ...
Hat ja genau das getriggert was ich einkalkuliert hatte....Dai6oro schrieb:Die können labern was sie wollen. Am Ende entscheide ICH was ich kaufe mit meinem Geld. Mich interessieren auch nur harte Fakten und Messungen die ich mir am liebsten von mehreren Seiten hole (wie immer an der Stelle eine Hoch auf das 3D Center und ihre Launch Reviews um sich ein umfassendes Bild zu machen).
Die Interpretation der Fakten und Messungen interessieren mich dabei echt nen Sch... Das mach ich dann schon selbst da brauch ich auch keinen "Guru". Kann selbst denken.