Non usare più i files Rar e Zip: adesso per comprimere c’è questa nuova tecnologi che sta facendo impazzire il Web | Non restare indietro
L’intelligenza artificiale si spinge oltre: ecco una nuova creazione che ha dato un nuovo spunto in merito alla tecnologia di compressione.
Il nuovo progetto, nato sotto il nome di Chinchilla 70B ha letteralmente sbalordito tutti. Ma di cosa si tratterà? Scopriamolo insieme.
Ottenere nuovi tassi di compressione Lossless sia per le immagini che per i file audio era l’obiettivo principali degli scienziati di DeepMind. Proprio per questo, le loro ricerche hanno portato alla luce una scoperta davvero incredibile.
In particolare, parliamo della loro nuova scoperta, riconosciuta con il nome di Chinchilla 70B che ha dimostrato ancora una volta la massima potenza dell’intelligenza artificiale.
L’esperimento ha infatti mostrato come l’utilizzo dell’AI abbia portato ancora una volta a rompere quel muro divisorio e andare ben oltre la nostra realtà, regalando un nuovo metodo di compressione che sia molto più innovativo e immediato rispetto ai metodi tradizionali.
Chinchilla 70B: cos’è e come funziona
Gli sviluppatori hanno testato questo nuovo strumento prevalentemente sui prodotti testuali, vista la buona riuscita, hanno poi proposto il medesimo metodo anche per la compressione di file audio e immagini. Inutile dirlo, i risultati hanno sconvolto tutti e si sono dimostrati più che positivi. In particolare, i ricercatori hanno lavorato su un particolare algoritmo di compressione specializzato e questo ha portato alla possibilità di ridurre alcune immagini del 43,4% e i file audio del 16,4% rispetto alle loro dimensioni originali. Questi risultati si sono dimostrati estremamente positivi in quanto pare che abbiano superato di gran lunga la capacità degli algoritmi di compressione standard.
Nuova strada spianata per l’archiviazione dei dati
Insomma, questa nuova scoperta ha davvero mostrato nuovi orizzonti per il settore dell’archiviazione dei dati. Sfortunatamente questo sistema non è ancora stato perfezionato, infatti secondo gli sviluppatori ci sarebbero alcuni limiti a cui prestare massima attenzione. Nello specifico, i risultati della compressione potrebbero non essere così utili per i file di grandi dimensioni. Sono proprio ricercatori di DeepMind ad affermare che i loro modelli sono in grado di ottenere una buona compressione solo fino ad una determinata soglia di dimensioni dei file. Riportiamo di seguito alcune loro dichiarazioni per comprendere al meglio le loro posizioni in merito al nuovo sistema di compressione: “Abbiamo valutato modelli preaddestrati di grandi dimensioni utilizzati come compressori rispetto a vari compressori standard e abbiamo dimostrato che sono competitivi non solo sul testo ma anche su modalità su cui non sono mai stati addestrati. Abbiamo dimostrato che il punto di vista della compressione fornisce nuovi spunti sulle leggi di scalabilità, poiché tiene conto delle dimensioni del modello, a differenza dell’obiettivo log-loss, che è standard nell’attuale ricerca sulla modellazione linguistica”.