[ad#ad-giorgio]
Sempre troppo spesso infatti l’eccessiva potenza dei processori, alla quale spesso equivale un’eccessiva dispersione di energia sotto forma di calore, porta i produttori ad adottare le soluzioni più disparate per garantire all’utente almeno la classica giornata di utilizzo, alle volte senza successo. MediaTek ha così presentato questo Helio P20, prodotto con un processo produttivo a 16nm, e vantante otto core Cortex-A53 a basso consumo, il tutto per risolvere (in parte) il grande problema dell’autonomia.
Il System on Chip è accompagnato da una GPU Mali T880, capace di garantire performance grafiche davvero di alto livello, supporta l’LTE Cat.6, la funzionalità dual-SIM e, feature molto importante, anche le nuove memorie RAM LPDDR4X, con un’efficienza del 70% maggiore delle “vecchie” LPDDR3 corrispondente ad una diminuizione dei consumi del 50%.
Che ne pensate? Siete ancora sicuri di rimanere “fedeli” a Qualcomm? (Di seguito il comunicato stampa).
SPAGNA, Barcellona – 22 febbraio 2016 – MediaTek annuncia il nuovo system-on-chip MediaTek Helio P20, un SoC ad altissimo risparmio energetico che si aggiunge alla famiglia di processori mobili di alta gamma MediaTek Helio. MediaTek Helio P20 offre nuove esperienze ai consumatori e libertà di design ai produttori di dispositivi combinando livelli impressionanti di autonomia della batteria, prestazioni e funzionalità premium per la prossima generazione di smartphone.
Dopo l’enorme successo del modello MediaTek Helio P10, il nuovo MediaTek Helio P20 vanta un’efficienza energetica del 25% in più. Il chipset P20 è prodotto con tecnologia di processo da 16nm ed è il primo SoC al mondo a supportare la memoria RAM (Random Access Memory) DDR (Double Data Rate) a basso consumo LPDDR4X. In termini di miglioramenti prestazionali, il SoC ha incrementato le capacità della CPU e della GPU attraverso la propria architettura True Octa-Core clockata fino a 2,3GHz che sfrutta al meglio i core ARM Cortex A53. La nuova unità grafica Mali T880, la GPU di più alto livello attualmente proposta da ARM, è clockata a 900 MHz, perfetta per le app più esigenti che hanno a che fare con video e giochi.
“MediaTek ha progettato il nuovo MediaTek Helio P20 per soddisfare la domanda dei consumatori che chiedono dispositivi eleganti, potenti ed efficienti dal punto di vista energetico”, dichiara Jeffrey Ju, Executive Vice President e Co-Chief Operating Officer di MediaTek. “Le persone attribuiscono sempre più importanza all’autonomia della batteria e alle capacità multimediali dei loro smartphone. MediaTek ha raccolto questa sfida con una soluzione all’avanguardia”.
MediaTek Helio P20 propone diversi vantaggi per la connettività, essendo dotato della più recente tecnologia modem MediaTek che supporta WorldMode LTE Cat.6 e carrier aggregation 2×20 a velocità pari a 300/50Mbps. Il SoC supporta la funzione Dual-SIM Dual Standby a livello globale per una connettività trasparente ovunque si trovi l’utente. Nelle regioni in cui la rete GSM non è più disponibile, il SoC si mette in standby simultaneo sulla rete WCDMA. Inoltre, MediaTek Helio P20 supporta il servizio multimedia broadcast e multicast LTE permettendo ai dispositivi mobili di ricevere contenuti video HD via LTE.
Per una potenza di calcolo superiore e ottimizzazione delle performance della batteria, MediaTek Helio P20 integra memoria LPDDR4X ottenendo il 70% di bandwidth in più rispetto alle memorie LPDDR3 e il 50% di consumi elettrici in meno abbassando la tensione di alimentazione a 0.6V garantendo così una user experience più fluida nella fruizione della foto/videocamera, del video e dei giochi.
Altro elemento di rilievo del processore P20 è la presenza dell’esclusivo Image Signal Processor (ISP) MediaTek Imagiq, che sfrutta il medesimo design del modello MediaTek Helio X20 per migliorare la facilità d’uso e la qualità dell’immagine della foto/videocamera. MediaTek Imagiq combina le più recenti tecnologie ISP per soddisfare le esigenze più evolute di chi utilizza lo smartphone per fotografare, e vanta caratteristiche come le seguenti
Dual ISP avanzato a 12bit con supporto di sensori Bayer e Mono – migliora la qualità dell’immagine riducendone il rumore e acquisendo il triplo del segnale luminoso rispetto ai sensori Bayer + Bayer convenzionali
Doppio sistema autofocus a rilevamento di fase – permette la messa a fuoco automatica in tempo reale quattro volte più velocemente rispetto ai sistemi autofocus tradizionali
Aggiornamenti all’engine HW 3A per fotografie più naturali, dettagliate e realistiche
Potenti tecnologie di denoising temporale multi-scala – producono video e fotografie in maniera più accurata con meno rumore, anche in condizioni di scarsa illuminazione.
Oramai ho detto tutto… quindi non vi tedio con ulteriori punti di vista a favore di questo prodotto.
Però una cosa la devo dire… Mediatek ha saputo migliorarsi! ??… eh?!
Ti parlo da un redmi note 3 con x10 e posso dire che Mediatek é ormai alla pari di qualcomm
in questo momento credo che snap 616 sia solo meglio del helio 10
no, il 650 si
anche il 616, ha una migliore gpu
Li uso dall’era di MT6577… quindi ne ho potuti verificare parecchi.
In quanto ad Helio X10 non è assolutamente male, ma è parecchio energivoro, quindi rende al meglio con un software appropriato, diversamente ci vuole una batteria molto capiente.
Sul mio allview X2 xtreme, il software mi permette di fare oltre una giornata con batteria oltre i 3300mAh, con uso intenso invece arrivo a sera con circa il 15% di carica residua.
Confermo …htc m9 plus va come una scheggia. …..
finalmente una gpu degna di nota!
Mica tanto… Avesse “montato” la MP12 ( la stessa dell’Exynos 8890 ) nulla da ridire!
Peccato “monti” la MP4. In pratica si tratta della stessa GPU adottata già sul Kirin 950 solo che qui è stata downcloccata a 700mhz ( sul Kirin è cloccata a 900mhz )
Detto senza mezzi termini fa abbastanza pena come GPU.
c’è da dire che viene “venduto” ( esistesse non solo come progetto futuro ) come midrange
Se tale GPU venisse montata su dispositivi “medio di gamma” nulla da ridire! Per un medio di gamma sarebbero prestazioni più che ottime!
Il problema è che molte case ( come è successo con l X10 ) sovrapprezzeranno il loro dispositivo per farlo passare superipermegatop di gamma quando, nel lato grafico ( visto che stiamo parlando di questo ), non ha nulla a che vedere con le GPU top.
Ma questo è il mercato, far passare una terza scelta per prima scelta e riuscire a convincere è proprio l’intento di molte grandi aziende, minimizzare i costi per massimizzare il guadagno, tanto l’utente comune (non dico utente medio perché vale anche per utenti più esperti) nella’uso di tutti i giorni non si accorgerà di nulla
Parole sante!
Già, infatti un dispositivo che non puoi usare come una PS4 a che serve?
Non ho proprio voglia di mettermi a discutere con un fanboy di tale marchio, ho solo fatto presente la realtà dei fatti. Bella o brutta è questa.
Evita quindi di tirare fuori la ormai trita e ritrita “battuta” del “eh ma se non lo usi come un/a *inserire macchina vagamente performante* a che serve?” per mascherare il punto debole del “proprio pupillo”. Quindi fare i sarcastici per difendere il marchio “del cuore” non serve a nulla.
Mah? A Parte il fatto che discutere delle delle performance di una gpu non c’entra nulla con l’essere un fan boy, si può anche prendere con più ironia senza scaldarsi.
Tecnicamente, parlando di uso mediamente impegnativo non ci vedo grossi limiti, scendendo in ambito impegnativo si, ma come si può impegnare a fondo una gpu ?
Come si testano i suoi limiti?
La maniera più efficace sono i giochi oppure i video (meno usati) in altissima definizione.
Per lavoro, testo diversi dispositivi e so essere obiettivo, quindi ritiro l’ironia non compresa e porgo le mie scuse.
Il commento sarcastico scritto in precedenza era semplicemente una provocazione. L’ironia è stata compresa fin troppo, ma non mi scaldo di certo per queste cose ( mica sono un “flopdragon 810” xd lol. Ecco il livello della battuta da te scritta in precedenza. Come detto “trita e ritrita” ).
Poi, tanto per dire, quella era tutt’altro che una discussione riguardo le performance di una GPU…
Non serve, inoltre, che ora rinneghi di essere un fanboy. Se non del marchio lo sei di questo prodotto. Basta leggere il tuo commento dedicato all’inizio dello spazio dei commenti. Non che ci sia nulla di male, ma l’oggettività va a farsi benedire.
Comunque, riguardo la metodologia di testing per il comparto grafico dei SoC,non si usano ne i giochi ne dei video ad altissima definizione. Da anni si usano i benchmark che vanno a sfruttare ogni aspetto della scheda grafica. Non parlo del “blasonato” Antutu o simili ma proprio di quelli dedicati al comparto grafico del SoC. Non è un semplice gioco visto che, ogni scenario, sfrutta la parte grafica in modo diverso ( c’è da dire che i giochi neanche si potrebbero utilizzare visti i titoli disponibili e visto che moltissime GPU di fasce diverse si comportano allo stesso identico modo sulla maggioranza dei titoli disponibili ).
Senza poi contare i Flops ( o meglio Gflops vista la potenza delle GPU attuali ) che una GPU riesce ad eseguire. Basterebbe solo questo dato per farsi un idea della bontà della GPU che si ha.
Ma il punto non è la metodologia di test bensì la potenza della GPU di questo SoC, tutto qua.
Che poi una GPU più performante è sempre preferibile ( sempre consumi permettendo ) per via di molti motivi. Per esempio la possibilità di registrare ad altissima risoluzione, la possibilità di fare slow-motion a framerate sempre più elevati senza perdere qualità ( visto che in molti, per permettere tale processo, riducono drasticamente il bitrate e la qualità ne risente parecchio ), permette la riproduzione di video a risoluzione più alta o semplicemente permette di utilizzare un display ad altissima risoluzione senza avere cali di frame in ogni ambito dell’uso quotidiano. Queste, che potranno risultare ovvietà, sono solo alcuni vantaggi di una GPU performante rispetto ad un altra.
Riconosco pienamente i meriti di questo SoC rispetto ad altri ma se ha un “punto debole” perché non dirlo?
Come supponevo… comunque sorvolando ogni possibile “fraintendere” non è il lungo idoneo, sono a favore del prodotto in considerazione del suo miglioramento da pessimo inizialmente a ciò che è attualmente, considerando il segmento medio in cui si colloca, mi sono permesso di ironizzare sul confronto, tutto qui.
Quando si tratterà di analizzare un top gamma, allora le cose stanno come dici tu.
Noto con dispiacere che le mie parole sono state del tutto vane… Evidentemente non valeva neanche la pena intraprendere una discussione simile con un “simpatizzante” di un determinato prodotto.
Ma va benissimo cosi, te hai le tue idee ed io le mie.
Non importa dai… sono solo punti di vista… ;))
Concordo, almeno i dati non dipendono dalle opinioni delle persone! :D
Com’è l’adreno 510 rispetto a questa mali e rispetto alle altre GPU del 2015?
Nei test che ho avuto modo di vedere l’Adreno 510 rende il doppio della vecchia Adreno 405. Rimane però sempre dietro alla “vecchia” Adreno 430.
Rispetto a questa mali non ti so dire. Posso dirti che paragonata a quella del Kirin va grossomodo uguale. Però in alcuni scenari la Mali T880 MP4 a 900mhz rende un pelo di più.
Almeno questo è quello che, per ora, ho avuto modo di vedere.
E rispetto ad una adreno 420 e 418 è distante oppure ha prestazioni simili?
L’Adreno 420 e l’Adreno 418 rendono comunque di più. La differenza non sarà marcata come con la 430 ma comunque c’è.
Mi sono scordato di scrivere che l’Adreno 510 è cloccata di default a 600mhz. Lo scrivo giusto per completezza
Va bene grazie mille
Nella articolo c’è scritto che il clock della GPU è a 900Mhz
Nell’articolo però non viene neanche specificato di quale T880 “monti”.
Quindi, visto e considerato che la MP4 è stata già adottata con quello specifico clock ( Kirin 950 ) e che è adottata sempre da un SoC Mediatek di fasca più alta ( X20 ) a frequenza più bassa ( 700mhz ) è probabile che monti la MP4 a 700mhz come il SoC di fasca superiore. Non avrebbe molto senso metterla ad una frequenza superiore.
Devo dire, però, che leggendo in vari siti, in molti dicono che non monti la MP4 ma la MP2. Spero vivamente che non venga adottata quest’ultima soluzione.
Ma quanti core la 880?
io devo ancora vedere il tanto annunciato helio x20 , inutile che mediatek annuncia SoC fichissimi se poi escono nel 2083
Lo sapremo il 24 di questo di questo mese, a Barcellona verrà presentato su zopo speed 8, ma per avere una giusta valutazione ci sarà da attendere qualche recensione e altri modelli, per verificare il suo comportamento con altri software.
Vedremo… :=/
processori qua e la.. le novità devono riguardare le batterie secondo me
io spengo il mio zte blade ogni notte e nn ho que
io lo spengo ogni notte e nn ho problemi
il mio g4 con la 20e dura tranquillamente due giorni
I contenuti sembrano buoni…per come la vedo io
Intel:Qualcomm=AMD:Mediatek