Samsung Exynos 8 Octa vorgestellt – Erster SoC mit eigener CPU-Architektur für das Galaxy S7

Samsung dürfte im Februar 2016 das Galaxy S7 vorstellen, erste Hinweise auf einen Beginn der Firmware-Entwicklung gibt es bereits. Passend dazu wurde nun auch von Samsung der Exynos 8 Octa vorgestellt, in der Gerüchteküche war bereits in den letzten Wochen zu hören, dass Samsung auf einen Exynos 8890 Octa setzen würde.

Samsung_Exynos8890_Main

Dieser Chip ist direkt in mehrfacher Hinsicht interessant. Samsung setzt hier erneut auf eine 14nm FinFET-Fertigung, wie sie bereits beim Exynos 7420 der im Galaxy S6 sein Werk verrichtet zum Einsatz kam. Diese Fertigung ist gegenüber „gröberen“ Fertigungsprozessen in der Regel effizienter.

Anders als im Fall des Exynos 7420 handelt es sich beim neuen Exynos 8890 allerdings um die erste One-Chip Lösung der Südkoreaner. Ein neues LTE Cat12 und Cat13-Modem mit bis zu 600 MBit/s im Down- und 150 MBit/s im Upstream über Carrier Aggregation findet sich ebenso auf dem Chip wie auch die erste CPU der Südkoreaner auf Basis einer eigenen Architektur. Bisher griff man hier immer auf Designs von ARM zurück während etwa Apple diese nur als Entwicklungsbasis nutze und mit Modifikationen eine deutlich höhere Leistung erzielte. Im Fall des Exynos 8890 setzt Samsung auf eine Quadcore CPU auf Cortex A53 Basis und eine wohl deutlich stärkere Quadcore CPU auf Basis einer eigenen Architektur. Auf deren Testergebnisse darf man sehr gespannt sein, Samsung verspricht eine 30 Prozent höhere Performance bei einer 10 Prozent höheren Energieeffizienz. In Sachen Grafik setzt der neue Exynos 8890 Octa auf eine brandneue Mali T880MP12 GPU mit zwölf Clustern, ebenfalls aus dem Hause ARM, auch hier darf man Spitzenwerte erwarten. Dass Samsung den neuen Chip im Galaxy S7 einsetzen dürfte ist meiner Meinung nach sicher, die eigenen Modifikationen an der ARM-Architektur finde ich extrem spannend und auch die Mali T880 GPU lässt hoffen. Die höhen LTE-Kategorien sind hingegen eher für den asiatischen Raum relevant, in Deutschland werden diese noch nicht genutzt und die Preise und inkludierten Volumina sind teilweise noch immer lächerlich.

Spannend wird auch, wie sich der Exynos 8890 im direkten Vergleich mit dem Snapdragon 820 schlagen wird. Diesen hatte Qualcomm erst vor wenigen Tagen angekündigt und geht es nach einigen Gerüchten, wird Samsung in einigen Regionen auf diesen Chip und nicht den Exynos 8890 setzen.

Quelle: Samsung

Wenn ihr auf "Kommentare von Disqus laden" klickt, wird ein entsprechender Cookie gesetzt und Nutzerdaten, beispielsweise die IP-Adresse an Server von Disqus in den USA geschickt, die Kommentare werden dann geladen. Eure Entscheidung. Mehr Infos dazu in den Datenschutzhinweisen.

50 thoughts on “Samsung Exynos 8 Octa vorgestellt – Erster SoC mit eigener CPU-Architektur für das Galaxy S7

  1. Der M1 scheint eine Enttäuschung zu sein.
    30% mehr Performance und 10% weniger Energieverbrauch?
    10% Performance alleine durch LPP statt LPE
    10% weniger Energie alleine durch Cortex A72
    Und weitere 10-40% mehr Performnce durch den A72.

    Alleine durch die Nutzung vom a53 als Cluster zum Octacore erkennt man das da was schief gelaufen ist.

    Qualcomm hat da einen Quadcore.

    Die Frage ist: ist M1 genau so wie A72, etwas besser oder etwas schlechter?

  2. Hab echt Gänsehaut bekommen, als ich das hier gelesen habe ? Das ist echt heftig, was Samsung alleine macht und der Fortschritt gegenüber Qualcomm, welcher sich schon seit längerer Zeit mit Prozessoren beschäftigt, ist schon hervorragend! Ich selber habe immer gedacht, dass ich mir das Note 4 kaufen würde, doch dann habe ich gelesen, dass der Snapdragon 805 (Quadcore 2,7 GHz) doch relativ viel schlechter in Benchmarks und in der Alltagsperformance gegenüber dem Galaxy S6 edge scheitert und halt einfach nicht für den Preis geschaffen war. Trotzdem ist das Galaxy Note 4 ein klasse Smartphone. Doch zu dem Prozessor: Dass man in die Architektur hineingehen finde ich super, denn man kann dadurch lernen, wie Apple es nämlich schon kann, dass 2 Kerne mit 1,85 GHz viel mehr Leistung aufbringen können, als ein Snapdragon 808 Hexacore. Aber die Exynos Prozessoren haben ja sowieso immer mehr Leistung gezeigt als die Snapdragon Prozessoren. Und stellt man sich jetzt einen Octacore Prozessor vor, der im selben Prinzip wie Apples Prozessoren gefertigt wurden. Das ist einfach so viel Leistung und die Effizienz wird immer besser. Dann hätte das Galaxy S6 edge anstatt 69.000 Antutupunkten eventuell 200.000 Punkte, wenn man den Score des iPhone 6S/plus mal 4 rechnet. Das wäre einfach unglaublich, aber das ist ja auch nur meine viel zu große Fantasie ???

    • Sorry, aber das ist Mumpitz.

      Was spielt es eine Rolle wenn ein Prozessor weniger Kerne, aber mehr Transistoren, mehr Fläche und mehr Energieverbrauch hat als ein Hexa-oder Octacore?

      Ein Exynos hat trotz 30% weniger TDP und 30% weniger Fläche mal einfach so die gleiche/ähnliche/bessere Leistung als ein Apple A9…man könnte auch sagen, dass es Samsung schafft, bei geringeren Verbrauch mehr Kerne mit höheren Takt zu betreiben, DAS ist Effizienz 😉

          • Danke für die Quellen! 😉

            Es ist wirklich schwer, verlässliche oder gar offizielle Angaben zu TDPs bei Mobile chips zu finden.
            Allerdings muss man bei Deinem Vergleich dazu sagen: Der Exynos 7420 wird im 14 nm LPE Prozess von Samsung gefertigt, daher die guten 2.5-3W TDP. Der A8X mit drei Kernen wurde im 20nm Prozess gefertigt. Der A9-Dualcore wiederum im 14nm/16nm-Prozess, da dürfte sich eine deutlich kleinere TDP gegenüber dem A8X ergeben.

            Man kann die Effizienz ja auch selbst nachmessen. Der GFXBench-Test Batterytest/Longtime-Test bietet sich dazu an. Dabei wird 30 Mal hintereinander die 56-sekündige OpenGL-ES2.0-Sequenz „T-Rex HD“ mit nativer Auflösung gerendert. Gesamtdauer 28 Minuten. Während das S6 edge mit 2.600 mAh 17% Abfall des Battery-SOC hat und bei der Leistung von 39 fps am Anfang auf 19 fps im Minimum gegen Ende abfällt, hält sich ein iPhone 6s mit 1.700 mAh konstant bei 60 fps und hat einem SOC-Abfall von 16%. Die generell niedrigeren Frameraten bei S6 edge rühren natürlich von der deutlich höheren nativen Auflösung her. Aber um die absolute Leistung soll es hier auch nicht gehen, sondern um den Energieverbrauch und Drosselverhalten bei anhaltender Volllast. Der Exynos drosselt massiv und verbraucht auch mehr Energie, während der A9 selbst unter Volllast überhaupt nicht drosselt.
            Samsung sollte sich überlegen, beim Nachfolger mehr auf das Dauerlastverhalten zu achten und weniger auf hohe Displayauflösung oder max. Multicore-Leistung.

            S6 edge Performance Degradation:
            https://uploads.disquscdn.com/images/755832f6a85ea312dceb7d4ce930f82a5d685fc09d765549c1c2e9842dd90a02.png

          • Jo und danke für die Chart 😉 ….dies geht dann wohl schon in Richtung SDP was bei Dauerlast nicht unerheblich ist.

            Trotz höherer Fertigungsdichte ist jedoch der 14nm-A9 gegenüber dem 16nm-A9 weniger effizient, was auch bedeudet, dass der Fertigungsprozess nicht alles ist.
            Der A9 hat zwar eine höhere Dichte gegenüber dem A8x aber auch einige Transistoren (insg. t3 Mrd.) mehr. Diese Ressourcen und FinFET wurden mMn überwiegend verwendet um eine Leistungsteigerung zu erzielen.
            Verwunderlich ist zudem, dass bei der Präsentation keine Floskeln zur Energieeinsparung (wie sonst üblich) gefallen sind.

            Whatever…die Kernausage bleibt: Die Anzahl der Kerne, ob hoch oder niedrig, ist im plattformübergreifenden Vergleich nur eine Buzzword-Falle….

    • Erschreckend wie wenig sich manche hier mit Elektrotechnik auskennen und nur nach den Zahlen gehen und eigebtlich garkeine Ahnung haben auf was es beim SoC wirklich ankommt. Ich könnte das gleiche zum 100. mal schreiben, aber darauf hab ich keine Lust. Wo hat Samsung Vorsprung vor Qualcomm? Das ist der größte Witz, den ich heute gelesen habe. Schwachsinn. Samsung überdeckt nur ihre Unfähigkeit gute SoCs zu bauen hinter der Leistung mit nem guten Geekbench Wert. Nur kommt es auf so viel mehr an. Rein nach Leistung und boah 8 Kerne. Genau darauf zielt Samsung ab. Quatsch. Es ist absolut genau andersrum. Qualcomm ist viel weiter als Samsung. Da Samsung kein Geld in Forschung steckt. Wie soll das dann auch was werden? Ich bin vom 8890 nach dem, was ich bisher gelesen habe, so beeindruckt wie von nem Fliegenschiss. Wo soll das denn beeindrucken? Immernoch diese grauenhafte big.little Architektur. Genau wie ichs gesagt hab. Samsung ist Entwicklungsresistent. Gott bin ich enttäuscht. Aber das Leute das auch noch feiern ? Das zeigt mir echt nur, dass sich die Wenigsten hier überhaupt auskennen mit der Materie. Schreiben ohne Ahnung…

      • Manchmal finde ich es komisch, wie strikt du gegen 8-Kerner bist… Samsung hat beim 8890 die vier starken Kerne auf Basis von ARM selbst entwickelt, genau das macht Apple auch und genau das wolltest du vor einigen Wochen doch und jetzt meckerst du wieder..
        Vom QSD820 ist bis auf ein paar technische Daten genauso wenig bekannt, wie vom 8890, aber der ist natürlich besser, weil Quad-Core. Das ist ’ne Logik…
        Samsung ist alles andere als unfähig, gute Prozessoren zu bauen. Wenn sie das wären, könnten sie sich auch nicht hinter guten Geekbench-Werten verstecken, denk da mal drüber nach 😉
        In der Praxis konnte der 7420 in so gut wie allen Disziplinen brillieren und darauf kommt es an. Das die Benchmarkwerte über allen anderen liegen, war nur die Erdbeere auf dem Sahnetüpfelchen auf dem Eis ^^

        • Klar sind 8 Kerne scheisse. Zumindest wenn es 2 Cluster sind. Das is doch fakt. Und du fandest den 7420 gut? Im Vergleich zum S810 schon. Aber das war auch Pest gegen Cholera. Ich hab schonmal geschrieben, wieso das der fall ist und dazu stehe ich auch.
          Sobald du dein S6 zum fotografieren oder zum ausführen aufwändiger Programme benutzt, hält dein Akku weniger lange als bei Smartphones von vor 3 Jahren. DAS ist der Grund wieso das miserabel ist. Würden die Kerne zusammen arbeiten, hättest du nur Vorteile. Es gibt reine Cluster, HMP und big.little. Und letzteres ist das schlechteste von allen. Wie kann ein SoC mit dieser technik dann fortschrittlich sein?
          Ich verstehe, dass manche das nicht aus meiner Perspektive sehen und deshalb nix kapieren. Aber das ist einfach schwach, was Samsung da abgeliefert hat. Ohne Innovation, ohne Forschungsaufwand, ohne Logik, einfach schnell schnell entwickelt. Ja wird halt so nix.
          Und ja eigens entwickelte Kerne sind immer gut. Aber wie gesagt: i7 potente Kerne kann jeder herstellen, wenn man nicht auf Energiemanagement achten muss. Und das macht Samsung. Nehmen halt noch ein anderes Cluster her, mit dem man dann Energiesparen kann. Das ist doch keine Leistung.
          Vor allem sind alle hier immer so geil aif den Geekbench Score, nur muss das S6 sowieso die ganze Zeit auf den schwachen Kernen laufen, damit der akku auch Stunden hält.

          • „Fakt“ ist nur, dass du konsequent gegen 8-Kerner bist, egal wie die aufgebaut sind.
            Du hast vor Wochen geschrieben, dass du den 7420 schlecht findest, weil Samsung keine eigene Bauweise verwendet. Nun macht man es und du meckerst dennoch.
            Und ich habe schon einmal geschrieben, dass die schlechtere Laufzeiten am kleinen Akku liegen, nicht hauptsächlich am Prozessor. Das S6 edge+ mit 3000 mAh hält deutlich länger, als das nornale S6, obwohl die sonstige Hardware praktisch identisch ist.
            das big.LITTLE das schlechteste ist, will ich auch gar nicht widerlegen, aber du bist so Engstirnig, das es auch keinen Spaß macht ^^
            Du studierst in diese Richtung, wenn ich mich nicht irre, korrekt? Das ist schön und gut und ich will jetzt auch nicht sagen, dass das falsch ist, ich finds super ^^ Aber es wird in den ganzen Unternehmen einen Grund haben, warun so gut wie alle auf eben dieses big.LITTLE-System setzen…
            Und in der Praxis ist es völlig egal, ob man nur durch diesen Aufbau Energie spart, Hauptsache man spart Energie…
            Und jetzt müssen wir abwarten, wie sich die Mongoose(?)-Kerne von Samsung in der Praxis schlagen. Vorher schon zu behaupten, dass dieses System schlecht, schwach oder gar scheiße ist, ist alles andere als fachmännisch… Ich glaube aber, das man so viel von einem Student in diesem Fachbereich erwarten kann ^^ Du bist schließlich auch kein Trottel 😀

          • „Aber es wird in den ganzen Unternehmen einen Grund haben, warun so gut wie alle auf eben dieses big.LITTLE-System setzen…“

            Ganz kurz: Erstens ist es einfacher und billiger, die CPU- und GPU-Designs direkt aus dem ARM-Regal zu nehmen, und ARM proklamiert ja (für Android) ihre eigene big.LITTLE-Architektur. Zweitens macht es für Android, noch mehr als für andere OS, Sinn, ihre (GUI-)Berechnungen auf mehreren Kernen zu verteilen.

            Dieser Artikel passt da ganz gut: http://www.androidauthority.com/fact-or-fiction-android-apps-only-use-one-cpu-core-610352/

          • So, wie Du Dich hier schon häufiger produzierst, musst Du ja wohl als Dr. Ing. der Elektrotechnik oder technischen Informatik auf uns niedere Forenschreiberlinge herabblicken, oder?
            Es wäre aber nicht schlecht, wenn Du mit dieser Attitüde auch detaillierte und präzise Argumente liefern würdest. Das, was Du schreibst, kann sich jeder in den einschlägigen News-Blogs zusammenlesen – aber wo ist das akademische Wissen in Deinen Kommentaren? Lass uns doch mal teilhaben an Deinen tiefgründigen Erkenntnissen und führe uns tiefer ein in diesen komplexe Materie! Gerne auf Hochschul-Niveau!
            ^^

          • Gerne. Studier Elektrotechnik im 5.Semester an der TU München. Hab soweit ich weiß früher auch schonmal darüber präzise geschrieben.
            Wo soll ich anfangen? Ich geh davon aus, du weißt wie die elektronischen Bauteile aufgebaut sind. Aus CMOS Transistoren. Aus zig Milliarden heutzutage. Jeder muss mit einer Spannung betrieben werden. Und zwar die selbe in jedem Cluster. Problem 1:
            2 unterschiedliche Cluster -> 2 Unterschiedliche Spannungen => SoC geht schneller kaputt.
            Problem 2:
            Dadurch, dass 2 Cluster separat durch den Treiber gesteuert werden, kommt es zu Umschaltzeiten, in denen keine Aufgaben erledigt werden können. Totzeit praktisch.
            Problem 3:
            Der Algorithmus regelt wann welches Cluster zum Einsatz kommt, dadurch kannn bei Grenzwertigen Anwenungen ein Umschalten entstehen, was den Akku zusätzlich belastet und auch die Lebenszeit der Bauteile strapaziert.
            Jetzt zu dem Standard-Problem:
            Problem 4: Viel zu starker Akkukonsum der guten Kerne. Man muss selektieren, welche Programme man laufen lässt. Hätte man die Eigenschaften kombiniert, wäre das effizienter. Und nein! Es liegt nicht nur am kleinen Akku. 2550mAh beim Edge sind nicht wenig. Trotzdem bei aufwändigen Programmen in 2 Std leer. Das liegt am Prozessor, der überhaupt nicht auf gutes Energiemanagement ausgelegt ist. Das ist ne katastrophe. Da hält ein Galaxy S2 länger durch im Kameramodus als das S6!

            Es geht heutzutage nicht einfach nur darum, dass das Ding läuft! So weit waren wir vor 20 Jahren. Es geht darum, dass das gebaute Bauelement auch Sinn ergibt und möglichst wenig Nachteile gegenüber dem Vorgänger hat. Und der SoC von Samsung ist ein Rückschritt auf dem Gebiet der Halbleiterelektronik. Das ist einfach schlecht. Ich finde, ich habe Argumente aufgezählt, jetzt seid ihr aber dran. Ich habe noch von keinem ein Argument gehört, wieso big.little und der 7420 oder der 8890 fortschrittlichlicher als der von Qualcomm oder die von intel sein sollen! Nennt mir mal was: Aber ihr kommt immer nur mit: Ja Dennis erklär doch mal, das sehen wir nicht ein. Zum 1000. mal. Das ist Kindergartenargumentation. Werdet doch mal konkret 😉

          • Doch, 2600 mAh beim S6 edge sind wenig.
            Das ist kein einfacher Zufall, das ein Note 5 oder S6 edge+ mit etwas größerem Akku und ansonsten exakt gleicher Hardware deutlich länger durchhält.

          • Ja, dass ein größerer Akku bei gleicher Hardware länger halten muss, is einfachste physik 😀 Nur im vergleich zu alten Gslsxy Geräten auch mit teils noch kleineren Akkus (S2, S3) sieht das S6 beim ausführen von Programmen, die die starken Kerne benltigen, extrem schlecht aus. Und DAS ist kein zufall 🙂

          • Ich hatte das S3 und das hatte alles andere als eine gute Laufzeit.. Nach einem halben Jahr musste ich teilweise zweimal täglich(!) den Akku wechseln, weil er einfach leer war.. Da ist das S6 dreißig mal besser.. und auch das S4 hatte nicht die super Laufzeit. Nur das S5 wird für eine gute Laufzeit gelobt und hey, das Ding hat auch nen größeren Akku.. und das s6 wird zwar nicht ales Akkumonster bezeichnet, aber auch nicht eine schlechtere Laufzeit als beim S5 angehängt…

          • Ich sehe es ja genauso. Und den Grund, warum Samsung, Huawei etc. und notgedrungenerweise Qualcomm big.LITTLE nehmen sind schlicht und ergreifend die Kosten.

            Dein Argument ist ja plausibel: Die HP-Cores geben zwar eine extreme Multicore-Performance, saugen aber auf Dauer zu sehr den Akku leer, werden zu heiß und müssen nach ein paar Minuten schon gedrosselt werden. In der Realität sch…., aber im 1-minütigen Benchmark und auf dem Datenblatt super.

            Samsung will jetzt also anfangen mit eigenen Custom CPU-Cores, aber nur für das High-Performance-Cluster. Und auch die GPU stammt noch aus dem ARM-Regal. Vielleicht kommt dann in ein oder zwei Jahren ein komplett eigenes CPU-Design ohne spezialisierte Cluster. Übrigens wird Qualcomm beim 820 eine 2+2-Kryo-Architektur verwenden: 2 HP-Kryo-Kerne mit >2GHz und 2 LP-Kryo-Kerne mit 1,6 GHz. Beides Kryo, aber wieder die Aufteilung in High-Perf. und Low-Perf. Cores.

            http://www.anandtech.com/show/9778/qualcomm-snapdragon-820-experience-hmp-kryo-and-demos

          • Der Unterschied zwischen Qualcomm und Samsung ist aber, dass bei Qualcomm die 4 Kerne zusammen arbeiten und dann bei leichteren Programmen die 2 starken Kerne nur abgeschaltet werden. Es ist leicht anders als das, was Samsung macht. Auch die Kernarchitektur ist bei Qualcomm zwischen beiden Partitionen ähnlich und aufeinander abgestimmt. Auch die Spannungen im SoC sind identisch. Bei Samsung sind es 2 komplett unterschiedliche Bauweisen und Spannungen (deshalb laufen beide Cluster auch nicht parallel bzw. können das nicht). Das ist so ein Zwidchending in etwa zwischen big.little und einem reinen SoC mit gleichen Kernen. Bei Qualcomm arbeiten die Kerne zusammen, bei Samsung getrennt. 🙂

          • Ja, das Energiemanagement bei Samsung ist grottenhaft, habe mit Qualcomm Soc’s immer bessere Ergebnisse gehabt, nur die Grafikeinheit ist bei den Exynos bedeutend besser.

  3. Off-Topic:

    Es wurde jetzt geleaked wann das Galaxy S7 vorgestellt werden soll.

    Nämlich doch am 21. Februar 2016.
    Vorprogramm bei der MWC Barcelona die am 22. Februar anfängt.
    Also ändert sich da nichts mit der „Tradition“. Die Gerüchteküche hatte ja wochenlang was anderes gekocht…

    Das mit dem Datum behauptet übrigens der „Leak Experte“ Ricciolo per Tweet.

  4. Bin ja wirklich schon mal gespannt, wie der sich gegen den 820 und den neuen kirin schlägt.
    Samsung gibt irgendwie immer geringere Leistungs- und Effizienzsprünge an.. schon beim 7420 war der angeblich „nur“ 35% schneller als der QSD 801.. und am Ende sind die deutlich schneller und bei Qualcomm und Co. werden die angegebenen Angaben nie erfüllt

  5. Hört sich sehr gut an.. Auf die ersten Test-/Benchmarkergebnisse bin ich sehr gespannt, auch im Hinblick darauf, wie sich die GPU im Vergleich schlägt – besonders bei Verwendung eines 4K-Displays, das Samsung beim S7 ja aller Wahrscheinlichkeit nach verbauen wird..

    • Samsung verbaut wohl kaum beim S7 ein 4K-Display.. beim Note 6 vielleicht, aber nicht beim S7. Das S wird man noch 1-2 Jahre mit QHD laufen lassen, so wie beim Note auch

          • Sony ist auch dämlich 😀
            Ich glaube, dass Samsung mind. noch beim S7 auf QHD bleibt.. zum einen weil sie wissen, dass es ausreicht und zum anderen glaube ich gibt es noch gar kein 4K-Panel auf max. 5,2″ und der Energiebedarf ist auch nicht gerade gering..
            Also beim S8 würde es mich nicht wundern, aber beim S7 werden sie bei QHD bleiben..

          • Glaube schon, dass Samsung jetzt den nächsten Schritt geht, zumal sie in einer Roadmap mal aufzeigten, dass 4K-Smartphone-Displays ab 2015 zum Einsatz kommen könnten. Ich meine auch, irgendwo gelesen zu haben, dass Samsung während der Entwicklung des Note 5 einige Prototypen mit einem 4K-Display getestet hätte.. Bin mir da aber nicht sicher. Was ich aber ich mit Sicherheit sagen kann: Wir dürfen gespannt sein. 😉

            Übrigens: Von mir aus darf Samsung ruhig beim QHD-Display bleiben, das reicht meiner Meinung nach völlig aus. Vielleicht gibt’s bei 4K ein besseres Bild beim Einsatz der Gear VR, aber sonst ist es im Alltag ja auch schon schwierig, einen sichtbaren Unterschied zwischen QHD und FHD zu erkennen.

          • Das wichtigste Wort ist immer „könnte“
            Auch wenn der Akkuverbrauch nicht proportional zur Auflösung steigt, ist der Verbrauch dennoch einiges höher, als bei einem gleichgroßen Full-HD oder QHD-Display und Samsung ist mittlerweile kein Hersteller mehr, der bekannt dafür ist, möglichst große Akkus in ihre Smartphones zu verbauen.. und wenn dann der Exynos 8890 „nur“ 10% Energiesparender ist. Vorallem wäre interessant zu wissen, auf welchem Auflösungs-Level diese 10% erreicht wurden. Wenn das bei QHD der Fall ist, verbraucht er für 4K definitiv mehr …
            Samsung hätte das Note 5 mit 4K-Display auf den Markt bringen können, ich bin mir sicher, dass man solche Panel schon hat. Man hat es aber gelassen, weil es noch zu riskant ist..
            Ich finde auch, dass Samsung bei QHD bleiben sollte. Das ist derzeit mehr als genug und auch für VR „gerade so“ ausreichend… lieber die Panel selbst effizienter machen, als bei jedem kleinsten SoC-Fortschritt etc. direkt eine höhere Auflösung verbauen, das ist eher naja…

            Irgendwann wird man definitiv auf 4K auf rund 5″ setzen, aber ich glaube 2016 ist das noch nicht der Fall… Besonders weil Samsung sich mit so einer Aktion selbst Druck machen würden, schließlich müssten sie dann 1-2 Jahre später eine NOCH höhere Auflösung verbauen, weil alles andere wäre ja sonst Stillstand… deshalb wäre es schlau noch 1-2 Jahre bei QHD zu bleiben

          • Denke, wir sind uns alle einig, dass QHD das Vernünftigste ist. Allein schon weil Samsung ja auch immer dünnere Geräte bauen will und daher kein großes Akkuvolumen verbauen kann.
            Was mich aber stutzig macht, ist die Vorstellung des 8890 mit 12 Shader-Clustern in der GPU (Mali T880MP12). Der Kirin 950 im neuen Mate 8 verwendet ebenfalls die Mali T880, aber mit nur 4 Clustern (aber wohl etwas höherem Takt). Laut Vorabwerten aus Gfxbench ist das Mate 8 in Sachen 3D-Leistung auflösungsbereinigt in etwa gleichauf mit dem S6, ein T880MP4 reicht also, um ein QHD-Display so zu befeuern, wie es ein S6 kann. Der 8890 kommt jetzt mit dem Dreifachen um die Ecke…

          • wäre ja schön, wenn die GPU die dreifache Power hätte und man dennoch bei QHD bleibt…
            man hat bei Vergleichen von S6 edge+ gegen iPhone 6S (Plus) ja gesehen, wie sehr da das S6 doch deklassiert wird, obwohl es schon eine gute Leistung bietet… Wäre schön, wenn man dann (nahc Benchmark) im 3D-Rendering halt 40-60fps schafft und nicht nur 15-25, wie es beim S6 der Fall ist ^^
            Ich würde mich jedenfalls freuen.. Denn die Dreifache Grafikleistung gegen eine mehr als Verdopplung der Auflösung ist dann wieder eher naja…

          • Ich seh das ja auch so, befürchte aber, dass der Werbeeffekt des 4K höher priorisiert wird.
            Was die eigentliche Stärke des A9 ist, das ist die Langzeit-Performance. Der fällt selbst nach 30 min Dauerlast mit OpenGL 2.0 Rendering überhaupt nicht ab. Es wird nicht ein bisschen gethrottlet und er wird dabei auch nicht übermäßig warm. Daher dürfte der auch deutlich länger 4K aufnehmen können.

          • Genau das befürchte ich auch..

            und auch das mit dem A9 ist halt so.. das ist wieder so ein Punkt, den man bei Android nicht zuende gedacht hat, Hauptsache die Kamera kann 4K..
            Wäre schön, wenn sich da beim 8890 was getan hätte, denn das ist der einzige Punkt, bei dem ich vom 7420 bzw. beim S6 etwas enttäuscht bin

          • Hier mal Screenshots des GFXbench Akkutests bzw. der Performance Degradation, bei dem 30x hintereinander eine 56-sekündige 3D-Szene mit voller Auflösung gerendert werden muss (OpenGL ES 2.0):

            S6 edge (QHD):

            Hier sieht man gut den Leistungsabfall ab dem 3. Durchlauf und dann noch mal weiter ab dem 21. Durchlauf. Max. Framerate am Anfang: 2200 Frames / 56 s = 39 fps, min. Framerate (22.-24.) 1080 / 56 = 19 fps.

            https://uploads.disquscdn.com/images/755832f6a85ea312dceb7d4ce930f82a5d685fc09d765549c1c2e9842dd90a02.png

            Battery SOC: 16% Abfall bei 29 Min. Dauerlast

            https://uploads.disquscdn.com/images/b81ce092f804d485bf9cffe88711e7b587db5cb388b5c6cb31ed7d908e89d61f.png

            Temperatur:

            https://uploads.disquscdn.com/images/dbf05f5b1c4ae19147b468261a4b2245d1a8361bd5c01409f3bd7d341a730bd9.png

          • ah ok, da ist ja der Vergleich zum iPhone 6S ^^
            Schon krass das zu sehen… und ich glaube da liegt auch irgendwie der Fehler der anderen Prozessoren.. ich glaube nämlich die Diagramme des S6 würde man bei quasi jedem anderen Android-Smartphone vorfinden…
            Da Samsung dieses Mal allerdings auf eigene Kerne setzt, bin ich wirklich schon echt gespannt, wie dieser sich im gleichen Szenario schlägt. Auf der einen Seite traue ich es Samsung zu, da einen echten Ausdauerläufer rauszuhauen, andererseits auch irgendwie… nicht..
            Ich hoffe einfach mal das beste, wäre jedenfalls echt geil ^^
            Der Akkuverbrauch ist effektiv ja ähnlich, wobei 16% beim 6S gegen die 442 des S6 „nur“ 275 mAh entsprechen ^^ aber dennoch ähnlich.. Aber die Ausdauer des A9 ist echt krass… das merkt man ja auch in der Praxis wie eben beim filmen in 4K. Und bei Android konnte bereits das Note 3 mit dem QSD800 in 4K aufnehmen, mit dem Limit von 5min. Und seit dem, was immerhin schon 2 Jahre her ist, hat sich praktisch NICHTS getan…
            Ich befürchte auch, dass sich da mit dem 820 und 8890 nichts dran ändert.. wäre aber schön

          • Hast Du den Eindruck, dass sich ein Großteil der Kundschaft beschwert, dass es das 5-Min.-Limit gibt, die Teile zu heiß werden oder gewisse Spiele nicht auf höchster Detailstufe dauerhaft gespielt werden können? Befürchte, dass die Datenblätter beim intensiven Wettbewerb im Androidlager die Oberhand behalten werden. Die vier M1-Kerne werden ordentlich rocken, aber Samsung müsste wohl von den hohen Taktfrequenzen weg. Apple taktet zwar auch schon mit 1,85 GHz, aber wenn Samsung auf 2,3 GHz geht, dann verbraucht das einfach zu viel.

            Zu 4K: Erstmal muss das 5-Min.-Limit weg. Dann muss die Bildqualität stimmen: weniger Rauschen, und bislang gibt es ja keine SW-Bildstabilisierung bei 4K. Und eine HW-gestützte H.265-Encodierung sollte auch langsam kommen, das würde die Datenmengen reduzieren. Alles in allem sehr anspruchsvoll für den SoC und dessen dedizierte Funktionseinheiten… Vielleicht erst bei 10nm-Prozess möglich…?

          • Ja naja das mit dem Takt ist so eine Sache.. besser als die übertriebene Taktung wie beim QSD805 ist es aber alle mal ^^
            Das bei den iPhone 6s bei 4K diese geniale Bildstabilisierung vorhanden ist, ist noch ein zusätzlicher Punkt. Zwar haben die meisten anderen Geräte nen OiS aber der hilft auch kaum, wenn man bedenkt wie viele mittlerweile mit einem iPhone 6S aus der Hand filmen und es tatsächlich aussieht, als würde man ein Stativ (oder wie man das nennt) verwendet mit ner Profikamera ist mehr als erstaunlich .. die Software-Stabilisierung ist bei der Konkurrenz wirklich miserabel, das muss man einfach zugeben…
            Von irgendwelcher Codierung usw. hab ich leider gar keine Ahnung ^^
            Aber lassen wir uns mal überraschen, bin gespannt, was beim S7 alles kommt. Seit dem S6 sind die S-Geräte auch endlich keine Beta-Geräte für die Notes mehr.

          • Jetzt wäre noch interessant zu sehen, wie das beim iPhone 6s aussieht..
            Und zumindest vom 4. bis 21. Durchlauf ist die Leistung ja recht konstant, auch wenn es „nur“ 30fps sind
            Das mit dem Akku ist naja 😀 Das liegt aber insgesamt eher daran, dass der Akku generell klein ist… 17% von 2600 mAh sind halt nur 442 mAh, ganz grob gesagt ^^ bei einem S6 edge+ wären das insgesamt weniger Prozent gewesen
            Die Temperatur hingegen finde ich sogar durchweg ok, ich meine max. 32°c

          • Beim Battery-SOC muss man immer aufpassen, was da angezeigt wird. Wie gut ist die Messung kalibriert, ist das wirklich eine lineare Darstellung der Batteriespannung oder wird dem Kunden was vorgegaukelt…?
            Und wo genau diese Temperatur gemessen wird, auf dem Board oder im Chip oder irgendwo im Gehäuse… kann ich nicht sagen. 32 °C nach gut 15 Min. Volllast klingt seeehr wenig für eine On-Chip-Temperatur.

      • MB ist Megabyte, also eine absolute Größe einer Menge. MBit/s eine Geschwindigkeitsangabe.
        Ist ja nicht so, dass man nur einmal 600 MB übertragen kann… – wobei bei den Speeds ist das High-Speed-Volumen natürlich ruck zuck verbraucht… ^^

        • Das stimmt schon, aber das wissen die wenigsten, denke ich ^^
          Und wenn dann da steht, dass die Übertragungsgeschw. bei 4800 Mbit/s liegt, könnte das von vielen als „das kann nicht sein“ abgestempelt werden oder sonstiges 😀

  6. Spannend ist vor allem, wie er sich im Vergleich mit dem Kirin 950 schlägt. Der Unterschied liegt ja vor allem in Samsungs neuem Custom Core (Mungo M1) gegenüber dem ARM-Cortex A72 im Kirin. Schätze mal, dass es da keinen so großen Unterschied geben wird, denn auch beim Fertigungsprozess gibt es keine nennenswerten Vorteile. Mal schauen, wie viele Shader cluster Samsung bei der Mali T880 verbaut. Im Kirin sind es vier (MP4), aber hochgetaktet (900 MHz).

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.