Share
Preview
Ma anche offerte di lavoro, data storie e un workshop sulla pulizia dati
 ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌ ‌
Oggi come nel 1700, o quasi :)
Cosa possiamo imparare dalla storia della data viz
Cosa trovi nella newsletter di questa settimana:
  1. Il data storytelling, come nel 1700
  2. Segnalazioni e #Datavacancy
  3. Data storie da commentare all'aperitivo 🍸
  4. Nuovo workshop: Pulizia dati con Open Refine
 
1. Cosa devi imparare per fare data journalism?
Quando si racconta la storia della data visualization viene usato questo grafico per dimostrare che la crescita della produzione di grafici, mappe e infografiche vede una salita costante a partire da metà XVIII secolo: cosa succede in quel periodo?
Nel libro “A History of Data Visualization and Graphic Communication”, Michael Friendly e Howard Wainer raccontano che ci fu una vera e propria “valanga di dati” a disposizione della scienza, ma anche dell’economia, e che i governi iniziarono a riconoscere l’importanza di misurare e analizzare la distribuzione della popolazione per applicare misure demografiche atte a incentivarne la crescita.

Disponibilità di dati, quindi, e necessità di prendere decisioni basate sui numeri: ecco che diventa fondamentale saperli raccontare bene.

Cambia la funzione delle mappe, per esempio: non servono più solo a spostarsi sul territorio, a navigare oppure a esplorare luoghi lontani, ma ad amministrare. Arrivano infatti i primi tentativi di mappe tematiche che contengono dati economici e legati alla salute dei cittadini.

Si diffondono i grafici astratti, così come nuove forme visuali per fare in modo che i dati “possano parlare agli occhi di tutti”, come raccontano Friendly e Wainer.

Suona familiare? Rispetto al 1700 le motivazioni con cui creiamo grafici e mappe sono molto simili: dobbiamo mostrare a qualcuno i risultati delle nostre analisi, della nostra raccolta dati, e dobbiamo farlo in modo efficace.

È in quegli anni che viene pubblicata la prima timeline della storia, a opera dell’educatore e matematico inglese Joseph Priestley, che voleva far capire ai suoi studenti la relazione tra le nazioni del passato e le persone che le avevano definite come tali.

A fine secolo è William Playfair a inventare molte delle forme grafiche che abbiamo in uso oggi, come la torta, il grafico a barre e a linee: celebre è il suo "Atlante politico e commerciale" del 1786 in cui spiega la situazione economica europea con 44 grafici.

Come questo, che mostra come si è evoluto il rapporto commerciale tra Danimarca e Norvegia e Inghilterra nel corso di 80 anni:
Dal 1700 a oggi il bisogno di comunicare i dati è aumentato, perché lo sono anche i settori in cui abbiamo dati a disposizione, dall'industria al non profit, dal pubblico all'attivismo.

Secondo gli autori del blog Towards Data Science sono quattro gli step per uno storytelling d’impatto dei nostri dati:

  • saper fare le domande giuste e costruire dashboard semplici, che vengano usate davvero da chi ne ha bisogno;
  • trovare il contesto e la cornice in cui comunicare appropriatamente i dati (qui c’è un ottimo esempio che prevede l’uso di … funghi commestibili e funghi velenosi);
  • un uso sapiente dei colori, imparando a scegliere la giusta palette.

Per approfondire ogni passaggio, c’è il nuovo percorso Data Storytelling che contiene i nostri migliori corsi sulla visualizzazione e rappresentazione dei dati: Data Visualization, Progetta un'infografica, Crea una presentazione data driven con l'accesso a 3 workshop in diretta dove confrontarti con i nostri docenti.

Vuoi saperne di più?

Se sei giornalista o studente/essa universitario/a, compila questo form con le tue info e ottieni il coupon per acquistare il percorso di Data Storytelling con uno sconto maggiore del 10% riservato agli iscritti alla newsletter.
 
Speciale aziende
Da maggio a luglio 2022 Dataninja parteciperà al progetto di formazione “Operazione innovazione sociale”, organizzato da Centoform e rivolto a liberi professionisti e piccole imprese con sede in Emilia-Romagna. L’obiettivo è sviluppare capacità di analisi dei dati finalizzate alla previsione sociale, per rispondere ai bisogni della società attraverso nuovi prodotti e/o servizi.

Maggiori informazioni per iscriversi a questo link
.
 
2. Segnalazioni e #Datavacancy
#datavacancy

 
3. Datastorie da commentare all'aperitivo
Cos'è il "Data Act" dell'Ue e perché cambierà la vita di chi lavora sui dati
Si tratta di un pezzo fondamentale della “European Data Strategy” e riguarda l’introduzione di “norme armonizzate per l’accesso equo ai dati e sul loro utilizzo”. Ecco gli obiettivi e i principi cardine di questa proposta di regolamento, che interessa tanto il settore pubblico, quanto le imprese.

I problemi con la raccolta dati sul covid continuano
"Ma gli errori di raccolta dati pandemia erano evitabili?" ci viene chiesto quando ne parliamo agli eventi pubblici. Forse nelle prime settimane di emergenza no, ma a due anni di distanza, sembra che i problemi continuino. Ne parla Riccardo Saporiti su Wired
.

Cosa c'è nel tuo portafoglio?
Non vogliamo davvero saperlo, ma la redazione di The Pudding ha raccolto i dati e raccontato in modo sublime, come sempre, che la storia di una nazione passa anche dai volti e i personaggi che si alternano sulle banconote. La loro professione, il genere, la provenienza ci dice molto della nostra storia.

 
4. Workshop: Pulizia dati con Open Refine
 
Difficilmente i dati ci arrivano già puliti, pronti per analisi e visualizzazioni, e ripulirli è un lavoro che richiede un grande dispendio di tempo. In questo workshop scoprirai come utilizzare il tool gratuito e open source Open Refine, uno dei più potenti per la pulizia dei dati.

Con la guida della docente, Benedetta Tonnini, passo dopo passo scoprirai l'importanza della pulizia dei dati, gli errori più comuni presenti in un dataset e l'utilizzo di Open Refine nelle sue funzionalità base e avanzate.

Cosa imparerai:

  • Cos'è la pulizia dei dati e perché è importante.
  • Introduzione a Open Refine: a cosa serve, come installarlo e funzionamento base dell'interfaccia
  • Le operazioni base con Open Refine: importare i dati e correggere gli errori più comuni.
  • Le operazioni più avanzate con Open Refine: creazione di facets, algoritmi di clustering e formule GREL.

Quando?

Il 27 aprile dalle 12 alle 13:30.


Al prossimo venerdì !
Facebook
 
Twitter
 
Linkedin
 
Youtube
 
Instagram
 
Website
Copyright © 2021 Dataninja, All rights reserved.


Ricevi questa email perché hai un'iscrizione attiva alla newsletter di Dataninja
o perché hai acquistato un corso sulla Dataninja School.

Dataninja è un’azienda certificata UNI EN ISO 9001 per la progettazione, la gestione e l'erogazione di attività formative (EA37).

La tua azienda è iscritta a un fondo per la formazione interprofessionale?

Hai un voucher personale che vorresti usare per i nostri corsi?
Parliamone!


Sede legale:
Dataninja srl
Piazza Carlo Caneva, 5
20154 Milano MI
Italy

Clicca qui per cancellarti


Email Marketing by ActiveCampaign