Samsung svela il nuovo processore Exynos 5 Octa con 8 core

9 Gennaio 2013124 commenti
Samsung ha svelato poco fa al CES 2013 di Las Vegas il suo nuovo processore Exynos 5 Octa per smartphone e tablet di fascia alta, realizzato a 28nm e con ben 8 core: l'architettura utilizzata è big.LITTLE di ARM che combina quattro Cortex A7 da 1.2 GHz a basso consumo per compiti più semplici e quattro Cortex A15 da 1.8 Ghz ad alte prestazioni per carichi di lavoro più intensi.


[ad#ad-alex]

La società sudcoreana afferma che le performance nel gaming 3D sono doppie rispetto a qualsiasi altra soluzione presente attualmente sul mercato e riesce a garantire un risparmio energetico fino al 70% rispetto all’Exynos 5 Dual montato sul Nexus 10. Per il momento non vi sono altri dettagli: non ci resta che attendere i primi benchmark e vederlo in azione, sperando che il prossimo Galaxy S IV possa beneficiarne (come indicavano alcune indiscrezioni tempo fa).

124 risposte a “Samsung svela il nuovo processore Exynos 5 Octa con 8 core”

  1. grogdunn ha detto:

    e pensare che io ancora viaggio con il mio sigle core ad 1Ghz :(
    senza contare che il mio portatile stà venendo superato dai cellulari :(

    mi sa che presto dovrò investire in tecnologia ^^

    • Vittorio Tiso ha detto:

      ti capisco ho l’s1 :)

    • Simo123 ha detto:

      Per non parlare di chi come me usa ancora un single core da 800 MHz… E 512 MB di RAM…

    • Tom ha detto:

      O come me che usa ancora un single core 1,4 ghz e 512mb di ram

    • dragondevil ha detto:

      e che ti frega…guarda quanti ne siamo…
      finché non esce il software che ci obbliga a cambiare modello io mi tengo stretto il nexus s!!

      • cuccuruccu ha detto:

        Anche io ho l’NS… ma da quando ho un galaxy nexus… bhe non c’è niente da fare, la reattività, la velocità in browsing, il multitasjing… altro pianeta. Certo solo per telefonare è sprecato.

        • dragondevil ha detto:

          si, ovvio…il nexus s come HW rispetto al fratello maggiore sarà anche obsoleto (io l’unica mancanza che sento è la poca ram), ma da quando ho acquistato il nexus 7 ho smesso di usare internet sul cellulare, quindi lo uso solo per testare le app e simili (e ovviamente fare tutto ciò che fa un cellulare)…
          e comunque a parte la fluidità generale del sistema non vedo altri motivi cui eliminare uno smartphone del genere per uno + recente!!

    • 200mhz e 64mb ram (il nokia n70…)

    • androidiani.comdario ha detto:

      800 mhz e 256RAM .. ma con cyanogenmod e custom kernel ancora va bene e non mi interessa cambiarlo

    • giuber ha detto:

      le architetture basate su cortex non hanno possibilità contro i pc, hanno quasi raggiunto il limite minimo di dimensione dei transistor (11nm) e non possono far altro che aumentare di core, cosa che comunque non influisce sulla vera potenza in quanto i sistemi operativi non sono capaci di gestirli, e per ogni core che si aumenta in realtà la percentuale di resa dei core singoli diminuisce… tra l’altro c’è da considerare che i governor stock degli smartphone android non sono mai stati un granchè (sfido chiunque a dire che l’ondemand è capace di gestire i core)… secondo me è molto più intelligente la scelta di snapdragon di utlizzare un “core di servizio a bassa frequenza” e non 4 come samsung… è uno spreco inutile…

      • AlessandroPellizzari ha detto:

        Non so dove hai vissuto negli ultimi 15 anni, ma il kernel Linux (e quindi Android) gestisce migliaia di core con un overhead minimo.

        Il futuro è nell’esplosione dei core, non dei GHz, perché semplicemente siamo vicini ai limiti fisici (la velocità della luce). Intel stessa sta sperimentando CPU a 200-300 core.

        Molti sviluppatori non sono ancora in grado di gestire il multithreading, e pochi linguaggi sono ottimizzati per sfruttarli al meglio, ma il futuro è quello, quindi gli conviene semplicemente iniziare a studiare.

        • Evil_Sephiroth ha detto:

          Lo gestisce su architetture server X86, su ARM non è una soluzione praticabile dato che la necessità di mantenere consumi molto bassi li ha spinti al limite teorico del silicio (come processo produttivo) e lo stesso vale per calcoli in virgola mobile o non parallelizzati che di fatto fanno sembrare ARM un 486

          • AlessandroPellizzari ha detto:

            ARM sul fp sembra un 486 perché molti chip non avevano la FPU, ma simulavano i calcoli fp con l’unità intera o con librerie in emulazione software (che generavano eccezioni, quindi ulteriore rallentamento).

            ARM è un’architettura molto flessibile, e già usata dalle centraline delle macchine fino ai server.

            E` RISC, quindi il set di istruzioni è molto ridotto, e in alcuni casi servono 2 o 3 istruzioni per fare quello che in x86 si fa con una sola, ma d’altro canto eseguire un’istruzione x86 “costa” di più che eseguirne una ARM, quindi in molti casi le cose si bilanciano.

            Il sistema di risparmio energetico di ARM è molto più avanzato di quello di Intel, in quanto consente di spegnere i core (e di cambiarne la frequenza) uno per uno. Quindi in questo 8core puoi averne 7 spenti e uno che gira a 200 MHz, e 10 ms dopo averli tutti e 8 attivi, per poi spegnersi quando hanno finito.
            Paradossalmente, questo fa risparmiare batteria, perché tiene attivo per meno tempo il resto del sistema (finisce i calcoli prima rispetto a un single core). La CPU non è la cosa che consuma di più. Anzi, forse è quella che consuma meno…

            Detto questo, vista la convergenza (vedi Ubuntu Phone, Asus Transformer, ecc.) tra cellulare, tablet e PC, CPU più potenti non possono che fare piacere.
            Pensa a questa CPU su un Ubuntu Phone, che usa i 4 core A7 quando è “cellulare” (a batteria) e aggiunge i 4 A15 quando è sul cradle (a corrente).

          • Evil_Sephiroth ha detto:

            Resta però il fatto che il migliore ARM attualmente non vale i primi dual core X86…..su dispositivi a batteria ARM ha innegabili vantaggi, ma su PC da utilizzare come PC e non per svago, cazzeggio e navigazione la vedo ancora molto grigia…

            Ad ogni modo anche su X86 si possono regolare le frequenze per core direttamente da OS….

            Che poi Transformer e ecc a me non paiono uan convergenza fra tablet e PC, rimangono tablet con la comodità di scrittura di una PC, ma i limiti di utilizzo sono quelli dei tablet,,,,,

          • AlessandroPellizzari ha detto:

            I primi dual core x86 erano i Celeron 333 e i Pentium2 corrispondenti. Un qualsiasi ARM del 2012 se li mangia a colazione. E non ha bisogno di una ventola.

            Per la regolazione della frequenza, ho qui un i5. La frequenza minima di ogni core è 1.6 GHz (la massima 2.8. Meno del doppio). E ne ho 4 sempre attivi almeno a 1.6 GHz. Un ARM da 1.5 GHz lo abbassi fino a 300 MHz (1/5) e lo puoi spegnere core per core.

            Magari è vero che un ARM top gamma non batte un Atom, ma guarda il costo e i consumi. A parità di consumi puoi mettere 4 ARM dove hai un Atom. E ancora non usi ventole… :P
            Le performance per Watt di un ARM sono molto migliori di quelle di Intel, e la differenza cresce in modo esponenziale quando vai su i7 e Xeon. Quindi, se fosse la potenza pura che vogliono, basterebbe fare una MoBo con 128 core A15, e consumerebbe e costerebbe meno di uno Xeon di pari potenza.

            Per quanto riguarda i limiti di utilizzo di un tablet, sono tali per mancanza di software, non certo di hardware. E il software sta nascendo, ma chi scrive software finché non c’è l’hardware che lo supporta? Vale anche il viceversa. Per quello sono contento che l’hardware avanzi, perché trascinerà il software.

          • Evil_Sephiroth ha detto:

            Veramente P2 è single core e anche i P4 erano single core XD

            I primi dual Core consumer sono AMD x2 e Core Duo

          • AlessandroPellizzari ha detto:

            Hai ragione. :)
            Io, quando penso “multicore” lo trasformo mentalmente in “SMP” (symmetric multi processing), e i primi processori SMP erano i Celeron e i P2, che potevano essere montati a coppie sulle MoBo.

    • ex iphoner ha detto:

      io mi sono fermato al “tuo portatile sta venendo”

    • Joey ha detto:

      Pensate che io ho un iPhone. State messi meglio voi.
      lol

  2. Vittorio Tiso ha detto:

    a bumbazza :)

  3. Secondo me è una scelta azzeccata quella di usare questa nuova combinazione di CPU

    • Simone Marzola ha detto:

      Secondo me no…. sarebbe stato meglio un dual core ( cortex a9 ) a 1 ghz o 800mhz come litte invece di un quad core a7… così risparmiavi tanta batteria e essendo abbastanza potente riusciva a far accendere il “Papà ” solo in giochi veramente intensi.

      • Ho detto così perché è ovvio che la tecnologia debba andare avanti. È anche vero che sono uno di quelli che pensano che se l’os fosse ottimizzato a dovere potrebbero montare anche un potente monocore e basta invece di fare tutti questi core.

  4. Tom ha detto:

    Calcolando che con spy cpu a fine giornata di un intenso utilizzo anche con giochi 3d avanzati… vedo che la massima frequenza è stata raggiunta per un paio di minuti… e sempre le frequenze più usate sono 800mhz…1… max1.2ghz…. mi sembra gia sprecato attualmente l’exynos del mio note2….

    • darex58 ha detto:

      É come girare in un centro abitato nell’ora di punta con una formula uno… Hai mille cavalli e ti basta un asino :-)

      • Tom ha detto:

        Hai perfettamente ragione… infatti la cosa veramente interessante di questo nuovo prodotto… sono gli a7 per il risparmio energetico… più che la potenza in se degli a15….

        • Giu ha detto:

          Sono minchiate questi processori visto che non esistono software che li sfruttano a dovere. Sta succedendo la stessa cosa che coinvolse i pc. Chi cerca la potenza in un pc oggi quando già il minimo sfrutta a dovere il software ? Al massimo un occhio la si da alla scheda grafica o alla batteria.

          • Giu ha detto:

            Complimenti al cojone che ha messo un voto negativo, torna a apple pirlottero.

          • Ettore ha detto:

            1 è stato detto che le prestazioni grafiche sono maggiori rispetto alla oncorrenza!! 2 se risparmi energia e puoi avere più potenza non ti conviene?!

          • AB94 ha detto:

            Ragà, ragioniamo 4,8Ghz, come possono farlo sembrare risparmio energetico. Il mio cellulare ha un s3 single core e consuma comunque con 1 misero ghz, pensate quasi 5 ghz se possono risparmiare energia, per me è solo pubblicità e ce ne renderemo conto presto!

          • Ettore ha detto:

            28 nm ottimizzazioni!! stai scherzando??

          • AB94 ha detto:

            Scusa, non ho capito questa replica!! Non ho parlato proprio della litografia!

          • Nihang Singh ha detto:

            mi sembra che non hai capito niente te..!!
            qua si sta parlando di Core non dei Ghz..!! comunque il tuo snepdragon s3 è un dual core..!!

          • La potenza serve sempre, ci sono software che ne hanno bisogno per forza.

          • varanhia ha detto:

            Certo, come Adobe CS6, Maya, 3DMax, la lista può continuare.

      • Alexander83 ha detto:

        ahahah il paragone calza a pennello!

    • Ndr ha detto:

      é la stessa cosa che pensavo io mentre leggevo l’articolo……tra l’altro oltre a spy cpu o installato micro cpu monitor che ti fà vedere con 4 line azzurre il funzionamento dei core (li vedi anche mentre giochi). Tengo il note2 sempre in risparmio energia anche quando gioco e ho visto che non ci sono differenze. Almeno con wild blood non ha mai laggato una volta mi sembra di giocare con god of war sulla psp. Con il mio vecchio sgs ogni 3×2 il cavaliere oscuro e nova 3 mi bloccavano il cell mentre al note 2 gli viene da ridere. Concludendo penso anch’io che tutta stò potenza serve a poco anche perché le software house tendono ha fare giochi che funzionino utilizzando meno risorse possibili per renderli compatibili con il maggior numero di dispositivi. Non é che tutti cambiano cell ogni anno……..e poi se uno vuole giocare si prende una console.

      • AlessandroPellizzari ha detto:

        Immagino che molti non sappiano che nei giochi si usa principalmente la GPU, non la CPU. La CPU viene usata in giochi che hanno AI molto sviluppate (esempio tipico: scacchi). Se usate giochi in cui i “nemici” hanno un tot di mosse prederminate, la CPU serve a ben poco, quindi è normale che venga usata poco.
        Ma provate a vedere la batteria prima e dopo aver giocato, e soprattutto il calore del telefono. Ecco, quella è tutta GPU.

        • Evil_Sephiroth ha detto:

          Falso, molti giochi su PC, come GW2 tornanoa d essere CPU intensive dato che costa meno che usare linguaggi GPGPU…

          E ciò è dimostrato anche dal fatto che gente con double GPU o configurazione SLI o Crossfire in molti giochi recenti non ha aumenti prestazionali notevoli, mentre con cambio CPU o aumento delle frequenze ottiene risultati migliori (e non per condizioni di CPU limited)

          • AB94 ha detto:

            Si, sono d’accordo. Certo, considera che comunque physics di Nvidia è una soluzione GPGPU alla fine. Se metti quella al massimo una buona GPU continua a servire!
            In realtà come è scritto sul sito NVIDIA tutte le soluzioni attuali cercano di sfruttare al meglio la combinazione cpu-gpu, sia per le applicazioni GPGPU che per quelle prettamente grafiche come i giochi!

          • Evil_Sephiroth ha detto:

            PhisX è una tecnologia proprietaria…funziona bene però nonè proprio sensata portarla ad esempio sui cellulari visto che forse verrà utilizzata sui dispositivi Tegra

            fra l’altro o su config multi GPU/VGA gli si dedica una scheda o se si fa sulla stessa con settaggi grafici notevoli si incontrano varie problematiche prestazionali e di temperatura…

          • AB94 ha detto:

            Si, questo è vero, a me piace (e se la portano su tegra non mi dispiace ;) ), però avendo solo una scheda grafica non posso affidarla ad una seconda come dici tu (ma per affidare physics completamente ad una scheda grafica sola si deve usare Maximum o si può fare con un semplice sli dual-GPU? scusa la domanda tecnica, perché il sito Nvidia fa l’esempio solo su sitemi maximum a 4 cpu, e io non mi sono mai posto il problema se si possa fare o meno anche solo con 2…) .
            Grazie a Dio io lo tengo sempre a medio e non mi da problemi di riscaldamento (o almeno io non ho notato questi problemi più sui giochi dotati di physics che in altri giochi).
            OT, ma tu sei un moderatore di console-tribe? Una volta scrivevo su quel forum e ricordo che te ne intendevi parcchio!

          • Evil_Sephiroth ha detto:

            Si sono io

            Su una 590 ad esempio puoi decidere se far gestire PhisX alla GPU A o B

            Non è che sia esclusivamente per la fisica però ti fa scegliere quale GPU/VGA usare

          • AB94 ha detto:

            Si ok, questo lo sapevo, a me fa scegliere tra gpu, cpu automatico. Io scelgo automatoco, ma ovviamente lo butta tutto sulla gpu comunque ;)

      • AB94 ha detto:

        Dovrebbero fare così anche coi pc. Speriamo bene!

  5. Arkaboy ha detto:

    Sta Minchia!! Il mio Note 2 è divenuto improvvisamente anziano

    • Simo123 ha detto:

      No,tranquillo. Il Note 2 sarà come l’S2: nonostante “l’età” riuscirà a tenere testa ancora a molti altri futuri processori,anche se lo supereranno. Come anche il Note 1 dopotutto.

  6. cicciobastardi ha detto:

    partendo da una semplice coppia di fili per telefonare… oggi hai bisogno di 8 core per fare una semplice chiamata

    • darex58 ha detto:

      Ahahahah bella ciccio

    • varanhia ha detto:

      Adesso non e solo un telefono, fa anche da forno, da frigorifero e televisore………..

    • Simone Baiocco ha detto:

      Io vedo la news di una CPU, dove hai letto la news su un telefono? Soliti facili luoghi comuni. Se parliamo del possibile utilizzo sul sgs4, se lo devi prendere solo per telefonare faresti meglio a comprarti uno tra i tanti cell da 19euro, che sono tra l altro ottimi per chiamare.

    • ex iphoner ha detto:

      in realtà tutta sta tecnologia serve al 70% solamente per fare i giochini!

  7. cuccuruccu ha detto:

    E sai adesso quanti bimbominkia che “io ho l’8 core e va il doppio del tuo che ne ha 4”?
    Spero prevedano anche una versione 2+2 che sarebbe sicuramente + utile di questa. Cmq l’a7 é veloce circa come l’a8 del vari nexus s galaxy s e telefoni coevi. Quindi per tutto ciò che esula dallo scrivere messaggi o lavoro in background entreranno in azione gli a15…

    Questa CPU si prefigura potente come il tegra 4 ma con un occhio in più al consumo energetico.
    Sulla potenza qualcomm é ancora avanti.

    Della GPU invece che si sa?

  8. Roberto Hawtin ha detto:

    Anche se 8 core non servono a molto, direi che è sempre una bella notizia perche fa capire quanto la tecnologia stia andando avanti :D

    • isis ha detto:

      Amico sytanno potenziando un’invenzione antica.. questa non é innovazione. L’innovazione é stata il frigorifero.. l’innovazione é stata il pc… la relativitá, facebook… passare da 4 a 8 core é come far arrivare un bimbo dalla tabellina dell’8 a quella del 9.

      • Roberto Hawtin ha detto:

        Questo se avessero montato 8 core A15, invece si parla di 4+4 ottimizzati per funzionare in determinati ambiti per risparmiare energia o per dare il massimo. Non sarà innovazione, ma ottimizzare cio che gia abbiamo è cmq andare avanti AMICO xD

        • AB94 ha detto:

          A stò punto meglio la soluzione Nvidia con un solo core a risparmio energetico!

          • Roberto Hawtin ha detto:

            Perche? se per loro la soluzione a 4core per il risparimio energetico è accettabile ci sarà un motivo…sicuramente buona parte della motivazione sarà semplicemente marketing dato che cmq viene spacciato per un octacore quando in realtà è un 4+4, ma alla fine a noi importa l’efficienza del prodotto sia parlando della semplice potenza sia in ambito di risparmio energetico.

          • AB94 ha detto:

            Si, ma io infatti la ritengo una decisione di marketing. Poi se è accettabile come soluzione non posso saperlo con precisione, ma come avrai capito da altri miei post ritengo di no. Possibilissimo che sbagli, ma a rigor di logica mi sembra meglio il single-core Nvidia.
            Poi se sono riusciti a creare un sistema a 4 core che risparmi energia megli di quello con un solo core ideato da Nvidia tanto di cappello, vorrebbe dire che davvero li sottovaluto ;)

  9. Phoenix ha detto:

    Ci girerà Crysis?

  10. Luca ha detto:

    Scusate, ma ha senso fare un quad core per il risparmio energetico?
    Direi che per le azioni più semplici basta e AVANZA un monocore A7 da 1 Ghz.

  11. Luca Tecnorete ha detto:

    Ahah che pivelli alla Samsung…stanno ancora ad 8 core? Io sto a 256 core, e dovete vedere la potenza quando gioco a Temple Run! :D

  12. xD ha detto:

    Io ho gia il 32 core ma non ditelo a nessuno…

  13. davide ha detto:

    Tanto la touchwiz lagga lo stesso, è inevitabile.

    • albxd98 ha detto:

      Si e sentiamo… una interfaccia che lagga meno della touchwiz? Ovviamente apparte quella pure google.

  14. Carmine ha detto:

    Direi che ci vorrebbero dispositivi con più menoria ram che velocita di pretazioni il mio s3 gia ne soffre con un misero giga :-(

  15. Mrs92 ha detto:

    bisognerà commissionare le batterie alla Stark Industries

  16. AB94 ha detto:

    Il processore del mio pc ha una frequenza di poco maggiore di questo, e non è mai arrivato a massimo, nemmeno coi giochi 3d!!
    Questo è un ARM a 12Ghz, in poche parole.
    In più quello del mio pc è x86, e per quanto ne so dovrebbe anche essere più lento a decodificare le istruzioni di un processore ARM a set ridotto!
    Si arriva alla follia, e ci si rende ridicoli agli occhi di chiunque!
    Che cos’è una scheda video, o un processore? Forse 8 core non ce l’hanno nemmeno la maggior parte delle schede video per telefonini.
    Cerchiamo di essere seri, qua si delira!

    • Pier Rigo ha detto:

      Hai concentrato una quantità inimmaginabile di cazzate in un unico post. Complimenti! XD

      • AB94 ha detto:

        Si? Perché non è vero che 8 core comunque consumano ed è meglio il core a risparmio energetico del tegra 4?
        Non è vero che se un pc non riesce mai a sfruttare tutto il processore allora un telefono allo stato attuale di un processore con lo stesso clock probabilmente non se ne fa nulla?
        Invecie di dire che ho scritto cazzate, tu dimmi dove ho sbagliato e ne discutiamo. Io sono sempre pronto alla critica costruttiva. Io sono convinto di quello che ho scritto.
        Poche core e clock alto = CPU
        Tante core a clock ridotto = GPU.
        Almeno così è andato fino ad ora il mercato, se samsung vuole cambiare le cose perché è riuscito a sovvertire tutta l’elettronica recente con delle ricerche tutte sue buon per loro e per noi che sfrutteremo finalmente tutta la potenza computazionale delle loro soluzioni.

        • masterblack91 ha detto:

          non puoi paragonare una cpu x pc con uno x smartphone -__- …sono totalmente differenti per tantissimi aspetti (dimensione,quindi calore,energia consumata,prestazioni,architettatura) per non parlare del kernel e quindi la parte software x gestire il tutto…

          • AB94 ha detto:

            Quello che ho detto io è che infatti gli ARM sono differenti dagli x86 e proprio perché sono differenti è assurdo dire che serva un processore del genere per un telefono, almeno per come intendiamo ora gli smartphone, poi se le cose cambiano e samsung inventa l’ultrasmartphone, buon per loro.

            Gli ARM erano nati con scopi ben diversi: dovevano essere rapidi ad eseguire istruzioni molto semplici in modo più veloce possibile, capisco che ora serva più capacità di calcolo rispetto alle prime applicazioni embedeed che erano molto semplici, ma io credo che un prodotto del genere stravolga completamente l’utilità di questi tipo di processori (soprattutto dal punto di vista energetico, poi non sò, potrebbero avere ragione loro, ma a me di certo un prodotto simile non interesserebbe mai!)

        • AlessandroPellizzari ha detto:

          8 core spenti non consumano. 8 core accesi finiscono il lavoro prima di un singolo core. Quindi 8 core è meglio di 1.

          E non puoi paragonarli con le CPU per PC, perché l’architettura per il risparmio energetico è completamente diversa.

          Questi processori non sono destinati solo ai telefoni, ma potenzialmente a media set, tablet, notebook, server.

          La tua equivalenza con CPU e GPU è totalmente sbagliata:
          http://www.techhive.com/article/183597/intel_concept_48_cores.html

          Nelle GPU il conteggio dei core è un po’ complicato, perché spesso funzionano a pipeline o a shader, ma onestamente qui ci ho capito poco anche io… :)

          • AB94 ha detto:

            Il ragionamento sugli 8 core che finiscono prima di un core solo è sbagliato! Hai ragione matematicamente, perché è ineccepibile, ma questo ragionamento funziona solo con certe applicazioni, e solo se sono state sviluppate in modo che lo stesso processo possa essere suddiviso in 8 thread (non me ne intendo, ma la vedo difficile!!).

            Poi ci sono casi in cui questo ragionamento è del tutto sbagliato, per esempio ho letto che non si può dividere in thread un algoritmo ricorsivo (NON sono un esperto e ammetto che potrebbe essere una fesseria, forse si può ma è difficile, comunque sul fatto che usare tanti core su un algoritmo ricorsivo non è efficace puoi credermi).

            L’articolo che mi hai linkato dimostra invece che io ho del tutto ragione: c’è scritto che serve per velocizzare applicazioni grafiche ecc. (cfr “Applications for these
            chips include the rapid processing of images, allowing for new methods
            of interacting with computers with a camera, rather than with keyboards
            or mice”).
            Anche se è una CPU è pensato in particolare per applicazioni grafiche, quindi il succo non cambia, sono i calcoli paralleli, sia di graphic computing che di GPGPU computing, che usano molte core, e generalmente la tendenza è assegnare questi calcoli alle GPU e non alle CPU.

          • AlessandroPellizzari ha detto:

            Come ho detto (forse in un altro messaggio): dipende dai programmatori.
            Gli algoritmi puramente ricorsivi (che non si possono trasformare in iterativi, o in “ricorsivi a chunk”) sono pochissimi.

            Ma a parte questo, nulla ti vieta di avere un processo produttore e n processi consumatori, se i consumatori devono fare elaborazioni ulteriori (pesanti) sui risultati del produttore.

            Un esempio: un processo che genera numeri primi (che già si può parallelizzare, volendo, all’infinito) e n processi che usano i numeri generati da questo per cercare di craccare un messaggio crittato.

            Puoi fare anche l’inverso: n produttori e un consumatore. Per esempio calcolare l’md5 di un file. md5 è un algoritmo che lavora a chunk (di 64 byte, se non ricordo male). Ti basta lanciare (lunghezza_file/64) processi, e avere un processo che raccoglie i risultati e poi spawna (:P) altri processi per aggregare quei risultati. Alla fine, quando ha un solo risultato, lo usa (stampa, salva, verifica, ecc.)

            Lo stesso vale per molti algoritmi di compressione, per esempio, o di crittazione (su un telefono si usa quasi sempre SSL per le connessioni web. E` facilmente parallelizzabile sia la codifica che la decodifica).

            Insomma, non pensare al singolo algoritmo, ma pensa all’applicazione nel suo complesso.

            Le GPU sono processori ottimizzati per il media processing, e si usano per questo, non perché hanno più core. Nel media processing (immagini, suoni, ecc.) è molto frequente dover fare diverse operazioni successive sugli stessi dati. Per esempio: calcolare l’area di un triangolo, applicarci una texture, fare l’antialias, applicare la luce, applicare un effetto nebbia, traslarlo nello spazio, renderizzarlo in 2D (esempio un po’ a cacchio, ma per rendere l’idea).
            Su una GPU spesso i dati rimangono nella “cache” dall’inizio alla fine dell’elaborazione, e il “programma” per fare questa serie di elaborazioni anche. Quindi se fai la stessa operazione su un milione di triangoli (una scena completa in 3d) hai un certo risultato prestazionale.
            In una CPU devi continuamente caricare e scaricare dati dalla cache. Idem per le istruzioni. Alla fine impieghi 10 volte tanto il tempo per fare la stessa cosa.

            Di contro una GPU è pessima in caso di incertezza (unpredicted branch) perché deve scaricare una cache più grossa, e invalidare il codice per caricarne altro. In questo campo è meglio una CPU.

            Questo MOLTO a grandi linee. In realtà, a partire dagli MMX, anche le CPU hanno alcune istruzioni di calcolo matriciale che aiutano in diversi algoritmi di elaborazione immagini e suoni.

          • AB94 ha detto:

            Ho capito solo che tu vedi le cose in grande, che hai detto che le GPU le hanno inventate apposta, che usano la cache in modo diverso dalle CPU e che probabilmente si possono dividere parecchi processi in tantissimi thread e solo alcuni sono difficili da suddividere!
            Poi è normale che le GPU si usano perché sono più convenienti e non perché hanno più core (ci mancherebbe), ma io so che hanno più core proprio perché così sono più convenienti per le operazioni che fanno.
            Per tutto il resto complimenti e spero un giorno di riuscire a capire il significato di tutto quello che mi hai scritto!!

  17. isi ha detto:

    Io con l’s3 Tengo sempre iL processore a 800 e mi funge benissimo jHaahah aumento un po solo per i giochi..

    • Kel ha detto:

      Infatti secondo me basta un dual core a15 magari con un core in più per il risparmio energetico

  18. Makumbatron ha detto:

    Scusate la domanda sono ignorante in materia ma più potenza non dovrebbe trasformarsi in minor consumo per operazioni più semplici un po’ come per le macchine ecco però ripeto sono ignorante in materia

    • tost ha detto:

      Mi piace x l’ignorante..XD scherzo cmq anche io avevo sentito questa cosa..x lo meno avevo letto in giro che più core significa meno consumo o qualcosa del genere..

      • gridiobresnak ha detto:

        Non proprio.. in teoria si ma tanto l’hardware spesso è sfruttato male.. (intendo nelle prime rom stock dei dispositivi)

  19. Teo ha detto:

    finchè il comparto batteria non migliora io non andrei oltre il dual core (1.5 GHz) e almeno 2 GB di RAM..

  20. Ale z. ha detto:

    L’idea di mettere 2 “unità distinte” per risparmiare energia non è male…però ormai si aumentano i core e basta, il silicio è arrivato al limite purtroppo…la vera innovazione secondo me arriverà con l’avvento di un nuovo materiale che consentira di aumentare i GHz consumando più o meno la stessa energia

  21. Domenico Caiazza ha detto:

    L’innovazione è innovazione..ma io con il mio galaxy s2 con un dual core vado una bomba…

  22. repsol777 ha detto:

    8 core… 2 core che lavorano, altri 6 a ciucciare batteria e basta…

  23. TechnoAdvice » Samsung mostra al CES 2013 i primi prototipi di display flessibili Youm ha detto:

    […] al nuovo processore Exynos 5 Octa, Samsung ha approfittato del suo secondo keynote al Consumer Electronics Show 2013 di Las Vegas […]

  24. 8eloham8 ha detto:

    Tra un Po per i processori futuri servirà tanto silicio quanto un intero teschio di cristallo,magari per far funzionare software che ci consentiranno di spostarci col teletrasporto,daye dayeee!!!! Voglio un tablet con 128 core e gpu a 512 core che quando glie lo ordinò mi si deve trasformate in un tappeto volante.

  25. […] (…)Continua a leggere Samsung svela il nuovo processore Exynos 5 Octa con 8 core su Androidiani.Com […]

  26. eddie6630 ha detto:

    Tutti a cercare il telefono più potente e lamentarsi che quello è lento,quello lagga, quello blabla, quello fa schifo perchè la cpu gira a 0,5 Khz meno che l’altra e quando qualcuno sviluppa qualcosa di innovativo ed interessante subito a dargli addosso?
    Il tuo single core da 800Mhz 512MB ram va ancora bene? Ottimo, tienilo finchè va bene e sii felice del tuo acquisto! Ma non è comunque motivo per dire che questa di Samsung sia una boiata.
    Il tuo GS3 va che è una meraviglia e non credi sia necessario passare a qualcosa di superiore? Meglio per te, hai dato senso ai soldi che hai speso per portarlo a casa! Ma non mi pare necessario sputare sull’innovazione.

    E comunque no, per chiamare non serve un telefono con dentro chicche del genere. Basta un 3310 per chiamare e mandare sms…anche roba più vecchia se è già “eccessivo” un 3310.
    Questo è un processore per smartphones, fa più di semplici chiamate.
    Quindi tutti i commenti del tipo “ma fa anche il caffè? lava i piatti con tutti quegli hertz?” sono assolutamente fuori luogo.

    (ogni riferimento a persone che scrissero precedentemente è casuale, non intendo offendere nessuno. Anche se vorrei quasi, cheppa**e vedere commenti così inutili, non dovrebbe essere un sito di smartphone enthusiasts questo?)

  27. 12567434 ha detto:

    wow, mio dio questo è il migliore, molto migliore della tua: http://www.zz8.me/pi

  28. Francesco Pio Armenise ha detto:

    Già non riescono a sfruttare in modo adeguato i 4 core che se ne fanno di 8? Lu usano per farlo diventare un Autobot?

  29. […] del suo secondo keynote alla fiera di Las Vegas, ha svelato al pubblico il suo nuovo processore Exynos 5 Octa basato su architettura ARM big.LITTLE con ben 8 core ed ha mostrato i primi prototipi di display […]

  30. dave ha detto:

    Se mettessero anche l’utilizzo contemporanea in caso di forte sforzo sarebbe rarissima la sommatoria in utilizzo normale ma nei benchmark spazzerebbe via qualunque altro processore arm in commercio o presentato

  31. unoc ha detto:

    Sono sempre 4 core, che funzionano alternativamente in funzione del carico di lavoro. Quindi si dispone di un processore 4 core molto potente che assorbe molta corrente ma solo se il carico di lavoro è elevato e quindi mediamente assorbe poca corrente prolungando la durata della batteria

  32. Daniel Vasilas ha detto:

    Scusate, ma tra qualche anno non ci saranno più i computer se i processori per telefono diventano così potenti!!!

    • Kel ha detto:

      Lo penso pure io xD pensa che io ad esempio ora uso raramente il mio notebook ultra potente con i7 ecc, ma faccio quasi tutto con nexus 7 e galaxy nexus :p

  33. Oblivius ha detto:

    A questo punto non lo definirei un 8 core… se ho capito bene l’infografica non sono mai accesi contemporaneamente, quindi quello che lavora è sempre un quad-core, giusto?

  34. Alessandro D'Armiento ha detto:

    il futuro è nel parallelismo! brava samsung!
    mi piacerebbe poter vedere i primi smartphone con i processori da 50 core e consumi ridicoli prodotti da intel ideati apposta per i dispositivi mobili

  35. […] dalla seconda metà dell’anno corrente, per rivaleggiare soprattutto con Samsung e il suo Exynos 5 Octa con quattro Cortex A15 e quattro Cortex A7 e irrompere con forza sul mercato internazionale. […]

  36. Samsung svela il nuovo processore Exynos 5 Octa con 8 core | Nerd For LifeNerd For Life ha detto:

    […] (…)Continua a leggere Samsung svela il nuovo processore Exynos 5 Octa con 8 core su Androidiani.Com […]

  37. […] approfittato del Consumer Electronic Show 2013 di Las Vegas per presentare il suo nuovo processore Exynos 5 Octa con 8 core: bene, stando a quanto riportato da AnandTech, integrerà una GPU PowerVR SGX […]

  38. […] approfittato del Consumer Electronic Show 2013 di Las Vegas per presentare il suo nuovo processore Exynos 5 Octa con 8 core: bene, stando a quanto riportato da AnandTech, integrerà una […]

  39. Samsung: Exynos 5 Octa e display flessibili, ecco il video del keynote | Nerd For LifeNerd For Life ha detto:

    […] del suo secondo keynote alla fiera di Las Vegas, ha svelato al pubblico il suo nuovo processore Exynos 5 Octa basato su architettura ARM big.LITTLE con ben 8 core ed ha mostrato i primi prototipi di display […]

  40. canasi ha detto:

    oh dio. I9220 Smartphone 5 pollici capacitivo Android 4.0 gps wifi 3g umts è così a buon mercato? 50% di sconto + spedizione gratuita. vale la pena di comprare?http://il8.ru/1H

  41. Manuel Peppe ha detto:

    Ragazzi un attimo di attenzione … Samsung Beffa Tutti … Non sono 8 processori sono 4 potenti e 4 economici … quindi per risparmiare batteria , funzionano solo quattro alla volta…. ma allora il quad core già esisteva , grazie Exinos , che illude tutti , li denuncerei figli di puttana !

  42. Samsung mostra al CES 2013 i primi prototipi di display flessibili Youm ha detto:

    […] al nuovo processore Exynos 5 Octa, Samsung ha approfittato del suo secondo keynote al Consumer Electronics Show 2013 di Las […]

  43. Samsung: Exynos 5 Octa e display flessibili, ecco il video del keynote ha detto:

    […] del suo secondo keynote alla fiera di Las Vegas, ha svelato al pubblico il suo nuovo processore Exynos 5 Octa basato su architettura ARM big.LITTLE con ben 8 core ed ha mostrato i primi prototipi di display […]

  44. Samsung utilizzerà nuovamente GPU PowerVR con gli Exynos 5 Octa ha detto:

    […] approfittato del Consumer Electronic Show 2013 di Las Vegas per presentare il suo nuovo processore Exynos 5 Octa con 8 core: bene, stando a quanto riportato da AnandTech, integrerà una […]

Social Media Auto Publish Powered By : XYZScripts.com