News Intel Pentium 4 6xx verbrät bis 130 Watt

Intel hat bereits mit der Auslieferung von Musterprozessoren der kommenden Pentium 4 6xx Prozessoren an Partner begonnen,
damit dort Tests zur Abstimmung auf die eigenen Produkte vorgenommen werden können.

es gibt sie wohl sehr bald schon.
sowie den P4 720 3,73 (EE) mit 1066FSB.
ob die 6xx 15watt mehr zu den 5xx verbrauchen,
ist bislang nicht bestätigt worden.
alles noch gerüchte und mutmaßungen.
und bisher heisst es nur das die 6xx dualcore-fähig sind.

preise werden wohl etwa bei: 640=$275, 650=$400, 660=$600, 670=$850 liegen.
 
Zuletzt bearbeitet:
Also ich find das gut von Intel, dann kann ich bald auch im Winter Motorrad fahren ;-)
 
Letztlich kann man doch sagen was man will.
Wer heute einen 3GHz+ Prozzi (oder vergleichbar) hat, braucht sich im Jahre 2005 keine sorgen machen.
Auf einem ASUS P4C800 + 3,2GHz Northwood + 6800Ultra wird es kein Game in 2005 geben das dieses System in die Knie zwingen wird.
AMD wird die Taktrate kaum nach oben treiben können und bei Intel ist auch mit 3,8 GHz schluß. So what? Wegen 600MHz mehr? Wegen SSE3?
Interessant zum aufrüsten wird es erst, wenn Dual Core + 64 Bit Windows kommt.
Daher ist in Sachen aufrüstung das Jahr 2005 im Bezug auf MB / CPU / Speicher bei mir vollkommen abgehakt. :cool_alt:
 
a) Intel = HT, SSE3, 64 Bit, GHz
b) Intel = no HT, no SSE3, no GHz

a) ist der P4,
b) ist der PM

Der P4 hängt thermisch und taktmässig.
der PM hat zuwenige Features für 2005 und auch viel weniger Taktpotential, als oft vermutet.

Daß Intel jetzt ein 95/130 Watt Monster launched, ist schon halbe Verzweiflung.
Richtig interessant wird es erst wieder mit 65nm bei Intel - da sind auch per neunen CPU-Designs Verbesserungen zu erwarten.


Bem: gerade in den Börsen-News http://cbs.marketwatch.com/news/story.asp?guid={A5750D81-CC54-4667-9BD7-D44E418281DF}&symb=AMD&sid=373&siteid=bigcharts&tool=1&dist=bigcharts

IBM baut zusammen mit Sony, AMD, Infineon, Chartered, Samsung und Toshiba ein Werk zur Nutzung der Nanotechnologie.
Zeigen sich jetzt schon die Umrisse der nach-Intel thermo Ära ?
 
Papier ist ja bekanntlich sehr geduldig, also lasst mal diese Wahrsagerei. Das Intel jetzt noch mit dem P4 in den Anwendungen eigentlich überall vorne ist und in den Games "nur" ca. 10% hinten dran ist, beweist was für eine klasse CPU der Northwood war und der Prescott war; (btw) obwohl ich immer noch nicht kapiere, wieso Intel nicht auf den Trichter gekommen ist, die Pipeline nicht zu verlängern, damit wäre der Prescott doch sicherlich merklich schneller gewesen wie der Northwood. Eigentlich war der Northwood nie richtig geschaffen für Games, nur gab es eben Anfang 2003 mit FSB800 so einen Performanceschub, dass der Northwood somit genug Leistung für die Spiele hatte und erst die Next-Gen-Shooter das im Jahr 2004 ans Tageslicht brachten. Selbst jetzt hat der Prescott noch relativ den Anschluss behalten, hier betone ich wieder, dass ich nicht kapiere, wieso Intel beim Pressi die Pipeline zum Flaschenhals gemacht hat. Haben die keine AMD-CPU's mal durch die Mangel genommen um zu kapieren, mit dem Prescott ist kein Kuchen mehr zu gewinnen? Wieso verlängert man die Pipeline nicht nur so sporadisch, sodass die CPU zwar mehr Takt verträgt, aber auch performancetechnisch einen Sprung macht? Das diese Schönheitsoperation zum P4 6xx etwas bringt, wage ich zu bezweifeln. Das E0-Stepping, NX-Bit und Speedstep waren ja davor schon vorhanden, 2 MB L2-Cache kannten wir davor schon beim Gallatin als langsameren L3-Cache. Da es dieser schon nicht schaffte AMD64 zu distanzieren, wird das der 2 MB Cache nun über die schnellere L2-Anbindung beim 6xx auch nicht schaffen. Vielleicht kommt man dadurch näher an AMD64 heran - mehr aber auch nicht. EMT64 war nötig, sonst hat Intel überhaupt kein Argument mehr für sich, den was bringt thermische Verbesserung mit dem E0 und Speedstep, wenn der Pressi trotzdem bei jeder Anwendung auf 130 Watt brutzelt. Nur die OC'er, wie unser Team, freut sich über thermische Verbesserung. Zur Speedstep-Technologie: Wurstbrot. Eine CPU auf 2,8 Ghz runterzutakten, hat doch nichts mit Technik zu tun, dass Intel den Multi verändern kann ist keine technische Meisterleistung. Hiermit wird man gegen AMD keine Blumen mehr gewinnen. Mit Dual-Core wird man bei Spielen auch keine Trostpreis mehr gewinnen können werden. Also muss was neues her.

Der Pentium 5...
 
Zuletzt bearbeitet:
GRAKA0815 schrieb:
Letztlich kann man doch sagen was man will.
Wer heute einen 3GHz+ Prozzi (oder vergleichbar) hat, braucht sich im Jahre 2005 keine sorgen machen.
Auf einem ASUS P4C800 + 3,2GHz Northwood + 6800Ultra wird es kein Game in 2005 geben das dieses System in die Knie zwingen wird.
AMD wird die Taktrate kaum nach oben treiben können und bei Intel ist auch mit 3,8 GHz schluß. So what? Wegen 600MHz mehr? Wegen SSE3?
Interessant zum aufrüsten wird es erst, wenn Dual Core + 64 Bit Windows kommt.
Daher ist in Sachen aufrüstung das Jahr 2005 im Bezug auf MB / CPU / Speicher bei mir vollkommen abgehakt. :cool_alt:

da geb ich dir recht.
bisher hab ich nur von der neuen unreal-engine gehört,
die wohl auf keiner heutigen technik lauffähig sei.
derzeit ist zb keine cpu bzw schnittstellen-technologie in der lage genug daten an zwei 6800 ultra`s im sli zu liefern,
damit die ihre ganze leistung zeigen können.
 
Zuletzt bearbeitet:
yamahakuesser schrieb:
da geb ich dir recht.
bisher hab ich nur von der neuen unreal-engine gehört,
die wohl auf keiner heutigen technik lauffähig sei.
derzeit ist zb keine cpu bzw schnittstellen-technologie in der lage genug daten an zwei 6800 ultra`s im sli zu liefern,
damit die ihre ganze leistung zeigen können.
Dann bleibt nur zu hoffen, dass die Unreal Engine vernünftig auf Dual Prozzi´s / Dual Core optimiert ist. :D
 
Schon irgendwie witzig... Anstatt dem Preis wird die Verlustleistung angegeben!
 
User1024 schrieb:
Langfristig würde mich interessieren, wann Intel endlich den Pentium-M desktop fähig macht - der liegt von der Effizent her noch vor dem Athlon64 und verbraucht noch weniger Strom.
Mitte 2006 könnte der "Presler" - Intels erster richtig entwickelter Dual-Core - auf die Züge des Pentium Ms aufbauen.
Bis dahin wird die Netburst Architektur im Prescott und Smithfield noch Bestand haben.
Der Presler kommt dann auch in 65 nm gefertigt.

Auf dem Mobilsektor wird der Dothan durch den Yonah abgelöst. Yonah wird in groben Zügen ein Dual-Core Dothan in 65 nm gefertigt sein. Mit der Napa-Plattform kommt später auch FSB667. Afaik jedoch kein Hyperthreading (dafür eben Dual-Core) und kein 64-Bit.
Außerdem könnte eventuell noch ein Prozessor Codename "Sossaman" auftauchen.
Im Prinzip gleich wie der Yonah nur Dual-CPU fähig, etwa ab 2,3 GHz Takt bei einem Verbrauch von 31 Watt. Dazu FSB667.

@rkinet:
Du vergleichst auch ein Desktop-Prozessor mit einem absolut reinen Mobile-Prozessor, der von Intel überhaupt nicht für den Desktop entwickelt wurde. Hyperthreading und SSE3 hat für ein Notebook nicht so die große Bedeutung. 64-Bit wären aufgrund etwas höherer Effizienz vielleicht noch interessant.

mfg Simon
 
Nein.
Alles ab 130 Watt ist mit Luft kaum noch zu kühlen.

Die Smithfields werden sicherlich mit abgesenkter Spannung daherkommen und auch nur mit 1 MB Cache pro Kern. Damit dürfte Intel es schon schaffen die Verlustleistung weit genug absenken zu können um 2 Kerne zu betreiben.

mfg Simon
 
@ alle, die an die Dual Cores denken:

Also die ersten Smithfields, die wahrscheinlich nur auf den neuen Lakeport und Glenwood Boards laufen werden, werden aus 2 Prescottkernen bestehen und somit gut heiß!

Das Problem allerdings ist, dass die Software auf Dual Cores programmiert werden muss und diese somit am Anfang nichts bringen. Ein Programm, welches nicht auf Dual Cores optimiert ist, kann nur einen Core nutzen - da ein Core weniger taktet als die heutigen einzelnen, wird der User dann also extrem an Leistung verlieren.
Ich zweifel an einem schnellen Erfolg der Dual Cores. Die brauchen mindestens bis 2007 um sich zu etablieren!


Ansonsten kann ich nur eines sagen: Wie gut, dass ich eine Wassekühlung verbaue! Mich kratzen die 130W damit auch nicht wirklich und die Stromrechnung wird auch nicht sehr viel teurer...

Lieber zahle ich da etwas mehr für einen Intel, als dass ich mich mit Problemen auf Seiten von AMD rumschlage (das hatte ich nun oft genug!)
 
GRAKA0815 schrieb:
Und bei all dem Stromverbrauch geschreie, hauptsache 5 Gehäuselüfter im Case und noch 4 Neonröhren, was? ;)

Da kann ich Dir nur recht geben ;)

Trotzdem gehöre ich zu den PC-Nutzern die ausschließlich auf Leistung, Lautstärke und Stromverbrauch achten. Der Rest ist in gewisser Weise unwichtig :)

Auch die Temperatur ist mir, solange der Rechner einwandfrei läuft, relativ egal.
 
35712 schrieb:
@ alle, die an die Dual Cores denken:

Also die ersten Smithfields, die wahrscheinlich nur auf den neuen Lakeport und Glenwood Boards laufen werden, werden aus 2 Prescottkernen bestehen und somit gut heiß!

Das Problem allerdings ist, dass die Software auf Dual Cores programmiert werden muss und diese somit am Anfang nichts bringen. Ein Programm, welches nicht auf Dual Cores optimiert ist, kann nur einen Core nutzen - da ein Core weniger taktet als die heutigen einzelnen, wird der User dann also extrem an Leistung verlieren.
Ich zweifel an einem schnellen Erfolg der Dual Cores. Die brauchen mindestens bis 2007 um sich zu etablieren!


Ansonsten kann ich nur eines sagen: Wie gut, dass ich eine Wassekühlung verbaue! Mich kratzen die 130W damit auch nicht wirklich und die Stromrechnung wird auch nicht sehr viel teurer...

Lieber zahle ich da etwas mehr für einen Intel, als dass ich mich mit Problemen auf Seiten von AMD rumschlage (das hatte ich nun oft genug!)

Gibt es keine Möglichkeit, den Code für einen Core von der CPU intern au 2 Cores zu verteilen? Per Hardware, im Idealfall ohne Leistungsverlust beim "Aufteilen" ?
Das wäre interessant, oder ist es schlicht unmöglich, unoptimierte Software auf 2 Cores zu Konvertieren?
 
rkinet schrieb:
Bem: gerade in den Börsen-News http://cbs.marketwatch.com/news/story.asp?guid={A5750D81-CC54-4667-9BD7-D44E418281DF}&symb=AMD&sid=373&siteid=bigcharts&tool=1&dist=bigcharts

IBM baut zusammen mit Sony, AMD, Infineon, Chartered, Samsung und Toshiba ein Werk zur Nutzung der Nanotechnologie.
Zeigen sich jetzt schon die Umrisse der nach-Intel thermo Ära ?

Klingt interessant :)

Zum Thema:

Zu ESS: Infos über die verschiedenen States gibts noch nicht oder? Ich glaube zwar nicht das Intel damit den Verbrauch des Prescott's unter den eines A64 Winchesters drücken kann (Selbst wenn man von einem State mit 1GHz ausgeht dürfte der Prescott noch mehr verbrauchen), aber wenn das Gegenteil der Fall wäre, wäre das zu begrüßen :)

Zu EMT64: Da muss sich zeigen wie das ganze wirklich aufgebaut ist in sachen Kompatiblität zu AMD64. Wurde ja vor einiger Zeit schonmal gemunkelt das EMT64 nicht so der Hit sein soll und EMT64 damit AMD64 hinterherhinkt (In Sachen Performance).

Die 130Watt sind natürlich schon ein starkes Stück. Ist das auch wirklich die Maximale Verlustleistung die entstehen kann? Denn früher war das ja nur ein Durchschnittswert und keine Maximalangabe. Interessant dürfte die Kühlung werden, zumindest bei mir ist die Lautstärke einer der Hauptkriterien bei einem CPU kauf (Auch wenn ich Wakü hab, denn umso wärmer das ganze wird, umso mehr muss der Radiator gekühlt werden). Dank EES muss der Lüfter aber auch nicht die ganze Zeit mit voller Drehzahl laufen, sicherlich sehr gut für die Ohren/Nerven der User :)

Mein A64 3200+ (CG) wird jedenfalls im Sommer durch einen A64 im E0-Stepping ersetzt, Intel hat momentan halt nicht wirklich was zu bieten im Desktop-Segment. Auf HTT kann ich verzichten, das bringt für mich keinerlei Vorteile (Und ob ich nun beim Encoden 2 oder 3 Minuten länger warten muss (Wenn überhaupt!) ist mir eigentlich egal), ich kann auch mit einem A64 mehrere Programme (3DSMax, Sandbox, Photoshop etc.) geöffnet haben und alles läuft spürbar flüssig.

@35712

Probleme gibt es auf beiden Seiten. Die Sache mit dem instabil hatten wir schonmal, und es dürfte langsam bekannt sein das das absolut nichtsmehr mit der Wahrheit zu tun hat (Heutzutage). Deshalb sind "Argumente" wie "AMD's sind aber instabil und schwerer zu konfigurieren" einfach nur Flameversuche oder aber, was garnicht so unwarscheinlich ist, Unwissenheit.

Wird jedenfalls interessant was Intel/AMD dieses Jahr noch so bringen, vlt. gibts ja doch irgendeine Überraschung? :)

@ScheinTOT

Sicherlich ist es möglich das Entwickler auch schon vorhandene Software durch Updates Dual-Core-/HTT-Fähig machen, jedoch wird die Leistung dann nicht so gut als wie wenn man von anfang an auf 2 Cores programmiert/optimiert (Kommt wohl auch auf die Komplexität des Programmes an). Software die keinerlei Optimierung auf Dual-Core/HTT hat wird natürlich auch nicht davon profitieren.
 
Zuletzt bearbeitet:
@92 was für probleme den bitte mit amd ? also ich selber kann das amd-intel geflame net mehr hören echt. Bin zwar schon immer eigentlich ein amd anhänger, aber ich kann das dumem geflame echt net mehr hören. Fakt ist das schon immer von intel anhängern erzält wurde das amd systeme instabil laufen und nur ärger machen was net war ist nach x amd system die ich bis jetzt hatte. Amd fans dagegen kamen bis vor der zeit des amd64 immer mit dem argument wie teuer doch intel ist als der northwood die athlon xps ja echt platt gemacht hat. Könnt ihr noobs euch net mal auf die technischen fakten beziehen ? Fakt meiner Meinung nach ist ganz klar das Intel derzeit nicht die Möglichkeit hat amd im Sektor gamez zu schlagen. Warum amd aber auch nicht mit dem amd64 intel im segment business sprich anwender software zu schlagen verwundert mich genauso. Das Intel gerade auch derbe Probleme mit dem Prescott hat verwundert mich nicht. Ich glaube die K8 architektur wurde schlichtweg von Intel unterschätzt. Aber wie vor mir ein paar posts weiter oben schon genau richtig sagte wird das intel gar nicht mal kratzen das ihre cpus so viel verlustlesitung haben zur zeit das sie einfach die riesengroße Mehrheit hat auf dem oem Markt der nunmal viel größer ist als der Einzelteilmarkt für User die ihren Pc selber zusammenbauen. Ein zweites wichtiges argument ist leider wie einer meiner vorredner schon sagte das amd jetzt auch mal an der preisspirale drehen musste und die amd64 cpus net mehr zu spottpreisen der athlon xp zeit verkaufen kann. Jedoch muss ich sagen das game und hardware freaks nicht viel geld ausgeben müssen für nen amd64. Ich selbger habe einne 3200+ winchester natürlich oced und der plättet jede intel cpu die es gibt und habe dafür **nur** 190€ bezhalt. Ich selber hoffe insgeheim das ist aber nur meine Meinung das Intel mal einen kleinen Denkzettel bekommt in der Richtung das oems endlich mal das Potenzial von amd cpus erkennen. Denn das argument das amd systeme probleme machen gilt schon seit Jahren nicht mehr und galt für mich persönlich eh noch nie. Intel hat leider zu oft versucht amd in die Ecke zu drängen. Bestes Beispiel zu zeiten der ersten p4 cpus als Intel mit aller Macht die einführung der neuen netzteile mit neuer atx spezifikation durchbrachte und sich das einfach leisten konnte weil sie wußten die netzteil hersteller müssen intels druck nachgeben ohne murren den intel ist ja der Riesengigant !! Warscheinlich ist das für euch genauso geflame aber das soll es nicht sein. Sind nur die Fakten die ich zur Zeit sehe und mir einfach mehr Konkurrenz auf dem Markt wünsche, nämlich einen cpu Hersteller amd der endlich mal die fetten gewinne wenigstens in der Region von Intel einfährt und damit auch die gleich resourcen hat.

MfG aNNixP
 
TheCounter schrieb:
@ScheinTOT

Sicherlich ist es möglich das Entwickler auch schon vorhandene Software durch Updates Dual-Core-/HTT-Fähig machen, jedoch wird die Leistung dann nicht so gut als wie wenn man von anfang an auf 2 Cores programmiert/optimiert (Kommt wohl auch auf die Komplexität des Programmes an). Software die keinerlei Optimierung auf Dual-Core/HTT hat wird natürlich auch nicht davon profitieren.

Nein, ich glaube du verstehst mich falsch. *g*

Ich meine eine INTERN im Prozessor verbaute Technik, die jeden Code auf 2 Cores "überträgt", d.h., dass theoretisch die doppelte Leistung ensteht. Also ein Feature, dass die Arbeit gleichmäßig auf beide Cores überträgt und das auch bei Software, die für Single Cores geschrieben wurde, ohne dass Softwareentwickler den Code ändern.
Nur weiß ich nicht, ob das möglich wäre.
 
ScheinTOT schrieb:
Nein, ich glaube du verstehst mich falsch. *g*

Ich meine eine INTERN im Prozessor verbaute Technik, die jeden Code auf 2 Cores "überträgt", d.h., dass theoretisch die doppelte Leistung ensteht. Also ein Feature, dass die Arbeit gleichmäßig auf beide Cores überträgt und das auch bei Software, die für Single Cores geschrieben wurde, ohne dass Softwareentwickler den Code ändern.
Nur weiß ich nicht, ob das möglich wäre.

du meinst wohl sowas wie hardware HT?


intel wird schon wissen was sie tun.
bei denen sitzen ja keine anfänger in der entwicklung.
und das sie was können, haben sie oft genug bewiesen.
amd oder intel schlecht bzw schön zu reden bringt auch nichts.
daher sinnlose diskussion.
es kommen sicher wieder zeiten, wo sich das blatt wieder wendet.
amd hat seine technik, mit zb 64bit oder CnQ,
schnell genug auf den markt gebracht
und ist intel damit einiger maßen davon gezogen.
hätte sich intel mit seiner 64bit technik schnell genug getraut,
hätte es vielleicht für amd schlecht ausgesehen.
hätte, wäre, wenn.
aber intel wird sicher nicht tatenlos zuschauen.
ist doch das gleiche wie zwischen ati und nvidia.
imo glaub ich das die 6xx cpu`s nur hinhalte sind.
die machen alte sachen noch einiger maßen fit fürn den markt,
um anderer seits vielleicht etwas zeit zu gewinnen
und dann "besseres" ausreichend zu entwickeln.
kann doch für den endverbraucher nur gut sein.
;)
 
ScheinTOT schrieb:
Nein, ich glaube du verstehst mich falsch. *g*

Ich meine eine INTERN im Prozessor verbaute Technik, die jeden Code auf 2 Cores "überträgt", d.h., dass theoretisch die doppelte Leistung ensteht. Also ein Feature, dass die Arbeit gleichmäßig auf beide Cores überträgt und das auch bei Software, die für Single Cores geschrieben wurde, ohne dass Softwareentwickler den Code ändern.
Nur weiß ich nicht, ob das möglich wäre.

Ich bin zwar kein Profi aber ich beizweifle das sowas möglich ist, denn du benötigst ja trotzdem eine Software (Emulator?) die die Arbeit auf 2 Cores verteilt. HTT in Hardware ist ja Dual Core.

Hab von soetwas auch noch nirgends gelesen, was ich jedoch die ganze Zeit höre ist das es ne weile braucht bis es genug Software gibt die von Dual Core profitiert da sie erst optimiert werden muss.
 
GRAKA0815 schrieb:
Zunächst glaube ich nicht an ein "erst in 2 Jahren". Warten wir 2005 mal ab was so noch kommt.
Und weiter, so lange sich nicht großartig was an der Marktposition von Intel ändert, braucht sich Intel auch nicht ändern. ;)
AMD kann die CPU´s nicht mehr so verramschen wie zu Athlon XP Zeiten und davor. Auch die wollen (endlich mal in der Firmengeschichte) Geld verdienen. ;)
Wenn sich aber dadurch der Marktanteil nicht grundlegend erhöht (und danach sieht es nach über anderndhalbjahren A64 bis heute nicht aus ;) ) ist das auch kein gutes Zeichen.

Und bei all dem Stromverbrauch geschreie, hauptsache 5 Gehäuselüfter im Case und noch 4 Neonröhren, was? ;)

Alle Achtung, 5 Lüfter machen bestimmt einen Riesenunterschied. Wie fühlt man sich eigentlich, wenn man sogar zu faul ist vor solchen unqualifizierten Kommentaren wenigstens mal beim Lüfterhersteller nachzuschauen wie viel ein Lüfter verbraucht? Ich habe sieben Papst-Lüfter in meinem System, davon verbrauchen fünf je 0,75 W und der Rest je 1 W, ja wegen den Lüftern ist mein Rechner jetzt ein totales Wattmonster. :rolleyes:

Was irgendwelche Leuchtstoffröhren verbrauchen ist mir kaum bekannt, die die meine Küche erhellt verbraucht 50 W und macht die Küche dabei heller als der Tag; ist echt leuchtstark das Ding. Was aber die Dinger verbrauchen die "Case-Modder" verbauen ist mir nicht nur nicht bekannt, sondern auch einfach scheisz egal, weil ich sowas noch nie im Rechner hatte und auch nie im Rechner haben werde, ohne Fenster wirkt sowas schlecht und Fenster kommt bei Schalldämmung einfach nicht in Frage, sieht irgendwie hässlich aus angeklebte Dämmmatten von unten zu betrachten.

Ich bin ganz sicher nicht der einzige "Wattmonstergegner" der auf Lichtshow im Rechner verzichtet. ;)

''''''''''''''''''''''''''''''

Intel machen das was sie machen, weil sie feste Abnehmer haben und es (leider) immernoch genügend Leute gibt die sich um Stromverbrauch nicht kümmern, die Leute interessiert ja nichtmal der Spritverbrauch ihres PKW, Hauptsache in x s von null auf hundert, dass die Umweltschäden nicht nur sie persönlich, sondern jeden Menschen betreffen spielt da leider keine Rolle und ioch meien hier nicht nur die Sportwagenkäufer, Marktstudien der Automobilhersteller legen offen, dass tatsächlich auch die meisten "Familienkutscher" vor allem ein Auto wollen das schnell "aus dem Arsch kommt" und Spritverbrauch immernoch eher nebensächlich ist.
 
Zuletzt bearbeitet:
Zurück
Oben