La celebre frase del politico e gastronomo francese di metà ‘800, Jean-Anthelme Brillant Soverian, racchiude in sé un intero universo, poiché il cibo è talmente connotato con l’essere umano, da divenirne il portavoce, il discriminante di comportamenti e di scelte. E poteva l’informatica non mettersi al suo servizio?
Mi piace pensare che l’argomento cibo sia come l’abito blu, che stia bene in ogni occasione e raccontare come i due ambiti vadano a braccetto. Una delle specialità scientifiche che sfrutta il proficuo connubio, per la necessità tecnica di armonizzare una enorme mole di numeri, è la scienza dell’alimentazione: da quando l’informatica è comparsa nelle nostre vite, i nutrizionisti usano strumenti digitali sempre più sofisticati, per raccogliere e analizzare i dati sui pazienti, al fine di sviluppare piani alimentari dettagliati. Schiere di programmatori hanno creato software specifici per aiutare i tecnici della nutrizione nella loro attività, sviluppando software a servizio di università, dietologi e biologi. Questi preziosi supporti servono per l’anamnesi, la creazione di piani alimentari e la gestione dei pasti dei pazienti ma aiutano anche i professionisti nello svolgere indagini alimentari e impostare diete personalizzate in tempi rapidi e con estrema facilità. Oltre alla gestione dei pazienti, i software si interfacciano con strumenti professionali per la valutazione della composizione corporea come l’adipometro e il bioimpedenziometro e il calorimentro. Vi sono anche programmi che valutano le interazioni tra cibo e farmaci, patologie, allergie e intolleranze; questa funzionalità li rende utilissimi sia nelle strutture sanitarie, che nella ristorazione collettiva scolastica e aziendale, perché è in grado di comunicare con qualsiasi cartella clinica o prescrizione medica, di gestire le diete, di raccogliere le prenotazioni dei pasti, di coordinare le comande per la cucina, di programmare le scorte alimentari ed erogare i pasti con la consegna del cartellino nutrizionale.
Altro ambito interessante della nutrimatica sono le app che riconoscono i piatti e ne fanno l’elenco degli ingredienti, forniscono il loro apporto calorico e sono in grado anche di darne la ricetta per la preparazione. E cosa serve per compiere questo miracolo? Basta una foto e ci penserà l’intelligenza artificiale! Per quello che riguarda il computo calorico dei piatti, l’applicazione di riferimento è Im2Calories: basta scattare una fotografia a ciò che si sta per mangiare, e l’algoritmo fornisce immediatamente una stima abbastanza attendibile delle calorie che si stanno per assumere. Al progetto sta lavorando Google, che sa bene che le immagini del cibo, insieme a quelle dei gatti e degli altri pets, si contendono il primato come le più postate sui social network.
Im2Calories usa sofisticati algoritmi matematici e l’intelligenza artificiale per analizzare cosa c’è nel piatto e fare una stima delle calorie. La tecnologia si basa su DeepMind, società acquistata da Google l’anno scorso per 400 milioni di dollari. Il progetto è in nuce e il software necessita di migliorie. Uno dei principali problemi è che non sempre riesce a riconoscere cosa c’è nel piatto e il risultato dipende anche dalla qualità delle immagini; comunque l’utente può «insegnare» al software a capire meglio. L’iter per la brevettazione dell’app è avviato e la tecnologia potrebbe servire anche a migliorare la salute; in un futuro prossimo questa potrebbe anche dire all’utente di quanta attività fisica ha bisogno per smaltire il cibo ingerito.
Per gli amanti della cucina, quelli a cui non piace solo mangiare ma amano cimentarsi tra padelle e fornelli, come spavaldi chef casalinghi, esistono app che forniscono la ricetta del piatto fotografato, con tanto di lista degli ingredienti e di procedimento per realizzarla. La più innovativa si chiama Pic2Recipe ed è una nuova applicazione del MIT che sfrutta le reti neurali. L’immagine scattata innesca la ricerca all’interno del database che fornisce in pochi secondi la ricetta completa. Si tratta di certo di un’app molto interessante, che potrebbe aprire la strada a nuovi utilizzi; è insomma una sorta di Shazam per il cibo. Il sistema è stato sviluppato sfruttando l’intelligenza artificiale e un database con oltre un milione di ricette e un sistema di riconoscimento delle immagini. Una volta inserita la foto della pietanza, Pic2Recipe fornisce un elenco di ricette e di ingredienti, ordinati in funzione della fiducia che il sistema ripone nelle varie alternative. Purtroppo per il momento il database raccoglie ricette principalmente americane.
L’app è il risultato del lavoro di un gruppo di studenti di ingegneria elettronica e informatica del Massachusetts Institute of Technology (Mit) e al momento non mancano le pecche. Innanzitutto, lo strumento non è ancora in grado di stabilire il modo in cui è stato cotto il cibo: se si tratta di cottura al vapore o arrosto. Sa che è carne, per esempio e cerca di azzeccare la ricetta, valutando gli altri elementi nello scatto. A volte si confonde quando gli ingredienti non sono facili da individuare, come nel caso dei sushi se la pietanza ha più varianti. I programmatori sono al lavoro per rendere l’algoritmo sempre più capace, così in futuro avremo una valida ragione per il foodporn, cioè la tendenza, a volte maniacale, di fotografare tutto ciò che si sta per mangiare: riprodurre il piatto a casa e sentirsi tutti come Gualtiero Marchesi.
La parola ha radici lontane, nel greco antico infatti significava “nocchiere” o “pilota”.
Si tratta di una piattaforma open source sviluppata da Google come evoluzione del proprio sistema Borg, oggi utilizzata per la creazione e la gestione automatica dei container, cioè quegli ambienti software in grado di eseguire e isolare dall’esterno l’attuazione di processi e applicazioni informatiche.
Prima di addentrarmi nel racconto di che cosa è e fa la piattaforma, vorrei spiegare per chi magari non è così addentro ai tecnicismi informatici che cosa è un container e come funziona.
Che cos’è un container.
L’evoluzione informatica della funzionalità dei server è passata da un’architettura esclusivamente fisica ad una virtuale e, recentemente, alla virtualizzazione delle applicazioni e dei software, al fine di non sprecare potenze di calcolo e risorse, altrimenti spesso inutilizzate. La creazione dei container serve proprio a questo: perché virtualizzare un’intera macchina, quando è possibile farlo con una piccola parte di essa?
Questa intuizione ha spinto gli sviluppatori a trovare delle strade alternative alla virtualizzazione completa, così il team di Docker ha reso questa tecnologia uno standard, sviluppando un formato di containerizzazione capace di comprimere in blocchi le applicazioni ed effettuarne il deploy (rilascio al cliente di un sistema software o di un’applicazione) in qualsiasi ambiente di esecuzione, senza doversi preoccupare delle condizioni di eseguibilità. L’inserimento dei dati nei container può essere considerata figlia della virtualizzazione, da cui deriva, ma offre dei miglioramenti importanti.
Rispetto a un’intera macchina virtuale, un container offre:
un deployment semplificato: impacchettando un’applicazione in un singolo componente, che può essere distribuito e configurato con una sola linea di comando, senza preoccuparsi dell’ambiente di runtime (momento in cui un programma viene eseguito);
una disponibilità rapida: con la virtualizzazione e l’astrazione del solo sistema operativo e delle componenti necessarie all’esecuzione dell’applicazione, invece che l’intera macchina, il sistema si avvia in un tempo minore, rispetto a quello di una macchina virtuale;
un controllo più capillare: i container consentono agli operatori e agli sviluppatori di suddividere in pezzi ancora più piccoli le risorse computazionali, garantendo così un controllo superiore sull’eseguibilità delle applicazioni e un miglioramento delle prestazioni dell’intero sistema.
I vantaggi della containerizzazione sono diversi, tra cui l’opportunità per gli sviluppatori di possedere sul proprio laptop migliaia di container, e avere sempre a portata di mano un ambiente di deploy o test adatto a ciascuna applicazione in sviluppo. Su un laptop infatti è possibile eseguire diverse virtual machine, ma non in modo veloce e con limitazioni alle prestazioni esecutive, cosa invece possibile con i container. Inoltre la gestione dei cicli di rilascio delle applicazioni è semplice: per distribuire una nuova versione di un container occorre lo stesso tempo necessario a digitare una singola linea di comando in console.
La molteplice funzionalità, la portabilità tra i principali cloud provider e l’alta affidabilità, hanno reso il container uno degli strumenti al servizio degli sviluppatori più utilizzato per ottimizzare le risorse e creare un’infrastruttura performante.
Container vs macchine virtuali
Il vantaggio dei container rispetto alle virtual machine sta nella virtualizzazione delle applicazioni software dell’intera infrastruttura informatica. Poiché i container sfruttano il sistema operativo dell’host, invece del proprio, ne consegue che necessitano di risorse di elaborazione minime, oltre a essere più semplici da installare. Gli sviluppatori non devono intervenire per modificare tutta l’infrastruttura, ma gli è sufficiente agire sul singolo componente applicativo o processo. Da qui l’esigenza di un modello per governare automaticamente l’orchestrazione dei container distribuiti in cluster e su più server host.
La storia deiKubernetes.
Quando, nel 2014, Google scelse questo nome per indicare la piattaforma open source per l’orchestrazione e la gestione di container, creata da Craig McLuckie e Joe Beda, scelse un logo rappresentato da un timone stilizzato, per richiamare l’origine greca e il significato della parola. I sette raggi del timone facevano riferimento al progetto Seven of Nine, che era all’origine di Kubernetes come ulteriore sviluppo di Borg. Nel 2015 Google, in seguito a un’alleanza con la Linux Foundation, decise di donare Kubernetes alla neonata Cloud Native Computing Foundation (CNCF), gruppo che aggrega i colossi mondiali del public cloud, insieme a un centinaio di startup. Il risultato attuale è un movimento globale che vede Kubernetes come uno dei principali tool di riferimento, con una crescita nell’utilizzo che i suoi fondatori non avevano ipotizzato neppure nei loro sogni più audaci. Nel 2019, infatti, aveva già più di 2.300 contributor e una diffusione capillare tra le imprese più innovative del mondo.
Come funziona Kubernetes
L’architettura e gli elementi chiave di Kubernetes rappresentano le ragioni del suo successo. La macchina master controlla i nodi (ognuno di loro rappresenta un singolo host di calcolo, cioè di macchina virtuale o fisica); essi lavorano controllati dal nodo master, che consente di programmare l’automatizzazione e la distribuzione dei container, in base ai desiderata dello sviluppatore e alla capacità di calcolo della macchina. Il software che riceve ed esegue gli ordini dal nodo master si chiama kubelet; esso avvia ed esegue i container. Gruppi di container riuniti in pod condividono risorse di calcolo e rete.
I vantaggi
La crescente fortuna di Kubernetes deriva dalla sua versatilità, visto il vasto numero di strumenti di supporto open source e la portabilità attraverso i principali cloud provider. Questo strumento innovativo è in grado di integrare i vari livelli di security con la stessa modalità con cui riesce a far interagire carichi di lavoro, reti, storage ecc., cioè mettendo a disposizione un’architettura di container completa. Questo vantaggio si riflette anche nel contenimento del rischio di downtime, perché la struttura della piattaforma assicura una continuità del servizio vicina al 100%.
Il futuro
Kubernetes permetterà la totale sincronizzazione delle app e questo porterà ad una distribuzione ottimale del carico di lavoro su tutti i cluster, grazie alla configurazione automatica dei server DNS. Insomma, tutto quello che sino a pochissimi anni addietro riguardava la fanta-informatica, oggi è realtà virtuale, mi si scusi il paradosso, che sta trasformando in maniera totale e irreversibile la concezione dei dati informatici e della loro gestione.
Buona navigazione a tutti!
Giorgio Bagnasco
Managed Services Specialist
Dottore in Matematica Informatica, originariamente sviluppatore di applicazioni Web, amministratore di database e project manager in una vasta gamma di applicazioni aziendali. Oggi specializzato in IT Management e System Integration, problem solving, progettazione e gestione di reti informatiche, ottimizzazione di sistemi informativi aziendali
In questi ultimi due anni abbiamo imparato ad utilizzare, come mai prima, tutti gli strumenti informatici per sopperire all’impossibilità di incontrarsi di persona e frequentare luoghi pubblici. Così gli store dell’e-commerce hanno registrato crescite stratosferiche, il lavoro è diventato casalingo e da remoto, il cinema lo guardiamo sulle piattaforme, la scuola la frequentiamo in DAD e persino le cure mediche, le facciamo in telemedicina. Dopo il grande balzo in avanti del cinema on demand, il settore che è cresciuto di più è quello dei libri virtuali. L’incremento globale del settore è stato tra il due ed il tre percento sia per la chiusura di molti punti vendita, sia per la “reclusione forzata” che ha privato gli italiani di tante altre forme di intrattenimento e che si sono riscoperti ferventi lettori. Il cartaceo sostanzialmente ha tenuto, con le librerie che si sono trasformate in venditrici di servizi, oltre che di carta stampata, sia come valore complessivo, sia come numero di copie, mentre c’è stato un incremento del 36% degli ebook ed un raddoppio degli audiolibri. Rilevante il fatto che gli ebook, se in valore rappresentano il 6% delle vendite, in termini di copie sono al 13%, in quanto il prezzo medio è meno di metà. Il rapporto inoltre sottolinea come le vendite on line siano passate dal 27% al 43%, su base annua, ma con un picco nei primi trimestri, poi in parte riequilibrato.
Quindi il settore tiene, con l’aumento degli ebook, la crescita degli audiolibri e l’aumento delle vendite verso l’online. Ma ciascuno di questi fattori si manterrà stabile nel tempo o tornerà a livelli prepandemici? È presumibile che nel 2021 ed ancor più nel 2022, potendo ricominciare a viaggiare, a frequentare ristoranti, concerti, teatri, cinema, etc. gli italiani leggeranno un po’ meno, staremo a vedere. Così come non è chiaro quanto l’acquisto a distanza e la lettura dematerializzata siano ormai abitudini che il lockdown ha contribuito a consolidare. Per cercare di capire i possibili sviluppi dello scenario editoriale, valutiamo quali sono i modelli di business che Internet offre e come si sono evoluti altri settori di intrattenimento.
Prima fu la musica, si è sempre venduta su supporti fisici (LP e CD, che si vendono ancora, anche se sono diventati per collezionisti), poi con la dematerializzazione, la si inizia a distribuire gratis online: nasce Napster nel 1999, ad opera di Sean Parker. Le case discografiche gli fanno causa e lo fanno chiudere. I tempi non sono maturi. Oggi la musica si ascolta gratis con pubblicità su Youtube o Spotify o senza, pagando un abbonamento, sempre su Spotify (di cui peraltro Sean Parker è uno dei principali investitori). Quindi è la volta del cinema. Lo abbiamo visto per decenni nelle apposite sale, comodamente seduti su poltroncine, poi a casa con VHS e DVD. In un secondo momento i diritti venivano ceduti alle televisioni vecchia maniera. Oggi con la virtualizzazione ed una banda di trasmissione adatta, si guardano i film e gli altri prodotti video in streaming. Netflix ha iniziato la propria attività nel 1998 distribuendo DVD, con l’intento di portare il film a casa del cliente: poi col cambiamento della tecnologia, continua a portarli a casa ma dematerializzati. Disney, sempre in abbonamento, sta mettendo sulla sua piattaforma gli enormi archivi a sua disposizione, con Pixar, Marvel, I Simpson (Fox).
E i libri? Alle ormai stantie e banali considerazioni sul piacere fisico del maneggiare il libro, di sentire il rumore delle pagine girate e del loro profumo, che in realtà diventa polveroso dopo anni di scaffali o mensole, quanti di noi leggono ancora i quotidiani comprati in edicola? In effetti non è green e rispettoso delle future generazioni tagliare alberi per fare fogli di carta, stamparli, leggerli e cestinarli in giornata. Fortunatamente la tecnologia per dematerializzare i libri esiste da tempo, e ora è diventata semplice e poco costosa. Esiste un problema legato però alla virtualizzazione dei prodotti editoriali, il rispetto e la garanzia dei diritti d’autore. Gli ebook devono essere necessariamente protetti da un formato dato dalla piattaforma che pubblica: Amazon richiede l’acquisto del dispositivo Kindle, IBS si affida alla protezione DRM di Adobe, purtroppo i due sistemi non sono compatibili e creano una concorrenza sleale sul mercato. Per gli audiolibri sono disponibili piattaforme in abbonamento, ad esempio Storytel svedese o Audible di Amazon.
Osservando attentamente il mercato si nota che sono soprattutto i colossi ad usare queste piattaforme, mentre molti piccoli editori non vendono in formato elettronico i propri prodotti. Qui si ravvisa una monopolizzazione del mercato, poiché il proprietario della piattaforma pretende la fetta maggiore degli introiti, lasciando agli editori le briciole. Ad esempio Amazon chiede il 40% del prezzo di copertina sul cartaceo ed il 50% su un ebook, questo scoraggia gli editori che non possono contare su vendite a 5 cifre. Alla fine di questa carrellata che fotografa la situazione attuale, verrebbe da suggerire agli editori di mettere in rete in abbonamento i propri archivi sterminati di opere non più ristampate, convertendone alcune in audiolibri. Sarebbe bello vedere piattaforme flat della Mondadori, della de Agostini o della Einaudi! Staremo a vedere.
Giorgio Bagnasco
Managed Services Specialist
Dottore in Matematica Informatica, originariamente sviluppatore di applicazioni Web, amministratore di database e project manager in una vasta gamma di applicazioni aziendali. Oggi specializzato in IT Management e System Integration, problem solving, progettazione e gestione di reti informatiche, ottimizzazione di sistemi informativi aziendali
Certo che gli ultimi due anni hanno spazzato via decenni di sicurezze e ora dobbiamo ricostruire molti ambiti, dandogli una nuova vita, che non potrà prescindere dalla tecnologia e dalla rete, ed io di questo mi occupo. A tale proposito, mi ha fatto riflettere la notizia che Netflix, il colosso delle piattaforme di tv streaming, nell’ultimo trimestre, interpretato dagli esperti come la fine del periodo fortunato, per loro, ha rallentato quasi del tutto la crescita di nuovi abbonati rispetto al lockdown dello scorso 2020. Stessa tendenza, con qualche diversità specifica, per gli altri presenti nel comparto: Prime Video, Disney+, Apple Tv+, Hulu, HBO Max, Chili, DAZN, Peacock, per citare i più conosciuti, poiché l’offerta si sta frammentando considerevolmente, favorita dal grande sviluppo delle applicazioni informatiche e dalla connessione digitale. Uno degli aspetti più eclatanti, che si può notare anche senza essere attenti analisti dei fenomeni sociali e commerciali, di questa epoca di pandemia, è che quest’ultima abbia accelerato il processo di spostamento dell’attenzione delle Major cinematografiche dal cinema in presenza, alla visione casalinga. Una bella comodità per il pantofolaio incallito, che non vuole alzarsi dal divano e cuoce i pop corn nel microonde, ma un grosso problema per tutto l’indotto che ruota attorno alle sale di proiezione. Se è pur vero che in Italia e nel mondo occidentale, la multisala cinematografica è quasi sempre proprietà delle case di produzione, c’è da dire che le stesse, negli ultimi vent’anni avevano investito nella costruzione di mega strutture, quasi sempre in grandi centri commerciali, rischiando ora di veder incenerire considerevoli somme di danaro. Quello che ha segnato la chiusura delle piccole realtà indipendenti di quartiere, ora rischia di diventare un’arma a doppio taglio per le Major stesse, che sono obbligate a scendere a patti con le piattaforme. Questa nuova economia dell’intrattenimento digitale stimola nuove idee, che permettono di muoversi nel labirinto di offerte e cataloghi da sfogliare attentamente; infatti sono stati creati già siti che fungono da motore di ricerca, come JustWatch e c’è da pensare che presto arriveranno app dedicate, per sapere chi trasmette cosa e che ci consentiranno di creare la nostra personale libreria di televisione/cinema/intrattenimento/on-demand. I vari lockdown che si sono susseguiti hanno costruito-rafforzato un modello che favorisce la creazione di un palinsesto personalizzato direct-to-video, uscendo dalla logica radicata negli anni Novanta-Duemila, in cui i film che non venivano proiettati nelle sale, fossero prodotti di serie B, a basso budget, destinati ad aggiungere poi un ulteriore modesto incasso con le VHS prima e i DVD poi. Oggi invece i migliori professionisti, attori e registi, sembrano apprezzare le produzioni di Netflix o Amazon, pensate per la visione sulla televisione, o peggio, sugli smartphone e sui tablet, girate con budget che nulla hanno da invidiare a quelli del cinema tradizionale. Ma sarà questo davvero il futuro?
Streaming o cinema? Chi vincerà, la voglia di uscire o quella di stare a casa?
Pare che, grazie ai vaccini, la fine delle restrizioni alla vita sociale e agli scambi ravvicinati sia in arrivo in tutti i Paesi della parte ricca del mondo e i loro fortunati abitanti attendono di tornare il prima possibile alla vita precedente, anche per quanto riguarda i passatempi e la cultura. Mi incuriosirà vedere se ci sarà il ritorno in massa alle sale cinematografiche e ai teatri o constatare che staccarsi dai nostri salotti sarà difficile. Da questo dipenderà il futuro di molti comparti, poiché il cinema troverà comunque la possibilità di proiettare i suoi film. La situazione che più preoccupa è quella dei teatri e dei locali notturni, discoteche e sale da ballo che sono chiusi da “troppo tempo” e bisogna che presto tornino in funzione. Sono luoghi “sicuri, almeno quanto i supermercati e indubbiamente assistere ad una pièce teatrale da streaming NON è come vedere un film su Netflix. Spero, come mia natura suggerisce, che sia il Governo che gli addetti ai lavori trovino il modo di concertare misure di salvaguardia della salute pubblica, che garantiscano il rischio basso o nullo di contrarre il virus e il ritorno ad una normalità che tutti agogniamo da molto.
Giorgio Bagnasco
Managed Services Specialist
Dottore in Matematica Informatica, originariamente sviluppatore di applicazioni Web, amministratore di database e project manager in una vasta gamma di applicazioni aziendali. Oggi specializzato in IT Management e System Integration, problem solving, progettazione e gestione di reti informatiche, ottimizzazione di sistemi informativi aziendali
Dal 1995 siamo al fianco di professionisti e imprese. Negli anni IPSNet è diventato un marchio sinonimo di competenza e professionalità per assistere il cliente e orientarlo nel mondo della rete, sempre più difficile e ricco di opportunità, ma anche di insidie. Cloud Provider, soluzioni per le reti informatiche e la sicurezza dei dati nelle aziende sono, ad oggi, il nostro quotidiano impegno per centinaia di clienti che, da oltre 20 anni, ci affidano la propria informatizzazione digitale.
Hai bisogno di maggiori informazioni? Chiamaci al 011.58.07.622
Ci ha pensato anche questa volta un soggetto privato a prevedere il tutto e a conferire al Big Data l’ennesimo ruolo istituzionale.
Da oltre 30 anni mi occupo di reti, sistemi e web. Ciò nonostante riesco ancora a sorprendermi di quanta poca consapevolezza abbiano molte persone in merito all’uso quotidiano dei dispositivi telematici e dell’ormai imprescindibile protesi, lo smartphone, che ognuno di noi si porta appresso in ogni istante della giornata. La maggior parte degli utenti ne subisce passivamente le sempre più strabilianti funzioni, le mirabolanti app e gli innovativi strumenti di utilità per la qualsivoglia esigenza, dalla ricerca del ristorante preferito, al miglior percorso da scegliere per raggiungere la destinazione voluta, alla statistica su quanti passi sono stati compiuti nel corso della giornata, con relativa cartografia su mappa, corredata di latitudine e longitudine di ogni punto del globo terracqueo attraversato. Reti sempre più veloci, immagini e video sempre più definiti, comodi ed efficaci servizi a supporto della vita quotidiana, oggettivamente utili ed estremamente intuitivi, semplicissimi da utilizzare e quasi sempre, a volte inspiegabilmente, gratuiti. Aggiornare costantemente server e sistemi operativi complessi, progettare e sviluppare app e piattaforme web interattive, visualizzare mappe cartografiche in 3D o video ad altissima definizione, non è mestiere banale. Richiede alte competenze, organigrammi efficienti, decine e centinaia di programmatori che per tutta la loro carriera dovranno costantemente apprendere, crescere, adeguarsi a nuovi linguaggi e nuove tecnologie. Parliamo di investimenti enormi, sia in termini di risorse hardware/software, sia in termini di risorse umane. Già da tempo si è capito che gli introiti pubblicitari, da soli, non possono sostenere tali costi, generare utili e rappresentare l’unico obiettivo di questa enorme industria telematica.
C’è sicuramente altro. E questo “altro” siamo noi.
I nostri dati, quello che cerchiamo su internet, quali sono le pagine dei quotidiani che apriamo ogni giorno sul browser, quali luoghi abbiamo visitato nell’ultimo mese o anno, quali immagini o video guardiamo, da chi e perché sono pubblicati e quale orientamento ideologico, politico o culturale sostengono. I colossi internazionali del Big Data fanno a gara tra di loro a suon di app e servizi gratuiti perché hanno bisogno di accaparrarsi il maggior numero possibile di generatori seriali di “swipe&click”, vale a dire un esercito di utenti, su scala planetaria, che passino il maggior tempo possibile con gli occhi puntati sul display del proprio personal computer, tablet o smartphone e non possano fare a meno di “scorrere&selezionare“. Dito indice su un mouse e pollice opponibile su uno smartphone sono gli strumenti attraverso i quali partecipiamo inconsapevoli ad un sondaggio di opinione globale, attivo ventiquattro ore su ventiquattro, in tutto il mondo, in tutte le lingue, su qualsivoglia tema della vita di ognuno di noi: orientamento religioso, ideologico, sessuale, politico, interessi personali in merito a sport, tempo libero, enogastronomia, turismo, arte, spettacolo, shopping.
Diamo un nome: potremmo chiamarlo Il Grande Sondaggio.
Ha avuto inizio con l’avvento dei primi motori di ricerca su Internet e durerà per sempre, senza bisogno di costose infrastrutture sociali tradizionali per conquistarsi partecipanti e relative adesioni, farraginosi sistemi di calcolo delle preferenze, tempi di attesa per i risultati. Il Grande Sondaggio si cela nelle APP che usiamo. Gli exit poll, per i famigerati Istituti di Rilevamento, sono un processo automatico, continuo, semplice. Ogni utente cessa di esprimere preferenze ogni sera prima di andare a dormire, per riprenderle la mattina seguente con le prime azioni che tutti svolgiamo appena svegli: Whatsapp, Facebook, le prime pagine dei quotidiani on line…. Privacy? Il primo collegamento Internet in Italia risale al 1986. Amazon è stata fondata nel 1994, Google nel 1998, Facebook nel 2004. Il regolamento generale per la protezione dei dati, risposta europea al dilagare del fenomeno della raccolta dei dati e relativo monopolio USA (Apple, Google, Microsoft) è entrato in vigore nel maggio del 2016, con attuazione solo due anni più tardi, il 24 maggio del 2018. Lascio a chi legge le considerazioni del caso.
l pubblico, ormai, aveva già aderito entusiasta al Grande Sondaggio su larga scala, a suon di App, Google Maps, IPhone, Itunes, ICloud e chi più ne ha più ne metta. Quarto trimestre del 2019: 1,2 miliardi di automobili circolanti nel mondo a fronte di 5,9 miliardi di persone in possesso di uno smartphone. Informativa sui cookies? Abbiamo a cuore la tua privacy? 5,9 miliardi di click su “ACCETTA E CONTINUA”. Fine del problema. Mai e poi mai rinuncerò a Instagram o a scegliere un paio di scarpe su Zalando. Al diavolo i cookies che tracciano tutto ciò che faccio sul web. È ormai conclamato il cronico ritardo temporale delle istituzioni, nazionali o internazionali, di qualsivoglia schieramento, rapportate alla velocità di pensiero dei grandi colossi privati e alle capacità di questi ultimi di osservare gli eventi, comprenderne i cambiamenti e i possibili impatti sulla vita economica, sociale e personale degli individui, offrendo in tempi rapidi servizi efficienti per rispondere alle nuove esigenze di ogni essere umano.
Istituzioni, privacy e Big Data: situazione attuale
Una battaglia persa dalle istituzioni su larga scala mondiale. Non mi addentrerò in teorie complottiste di cui il web è già saturo, e mi limiterò pertanto a sperare che la sconfitta del pubblico rispetto al privato, anche questa volta, sia avvenuta in buona fede e unicamente per manifesta e diffusa incapacità di competere con la velocità di pensiero e di azione di Google e soci. Un esempio recente? Italia, emergenza Covid-19. Comitati Tecnici Scientifici, Task Force con esperti nell’ordine di 450 unità, commissari straordinari, unità di crisi mattino pomeriggio e sera. DPCM notturni con validità dal mattino successivo che, in tema di diritto all’istruzione, bisogno primario sancito dalla nostra costituzione e per il quale ci si aspetta adeguata risposta dall’Istituzione preposta (MIUR), risolvono il tutto con un semplice acronimo: DAD, didattica a distanza. Indicazione che fa il paio con quella inviata ai medici di base, in piena emergenza sanitaria, sull’obbligatorietà di adottare i necessari DPI durante le visite ai pazienti, salvo poi non fornirglieli. Ma se nel caso di una mascherina in stoffa con elastici, € 0,50 di costo, in tempi brevi in qualche modo qualcosa ci si inventa, per una piattaforma multimediale di didattica a distanza e relativi protocolli di sicurezza, condivisione dati, videoconferenza, archiviazione di lezioni, compiti, test di valutazione on line e relativi voti, formazione di presidi, docenti, insegnanti e studenti sul corretto utilizzo della medesima, il discorso è leggermente diverso, sia in termini di tempi che di costi. Non si hanno notizie di piattaforme efficienti per la DAD commissionate dal MIUR alla velocità della luce, come invece avvenuto per la tanto chiacchierata APP “IMMUNI”. Il Registro Elettronico, negli istituti in cui è utilizzato, è ancora privo di funzioni efficaci e multimediali per video lezioni e affini. Ma niente paura. Ci ha pensato anche questa volta un soggetto privato a prevedere il tutto e a conferire al Big Data l’ennesimo ruolo istituzionale, questa volta di insegnante per i nostri figli, videoregistrandoli durante le lezioni nella propria cameretta, archiviandone compiti in classe ed esercitazioni e osservando se e quando riusciranno a recuperare quel 4 in matematica o inglese. Nel maggio 2014 Google ha investito qualche decina di milioni di dollari per realizzare la piattaforma G-Suite for Education, poi diventata Classroom con l’add-on MEET per le video lezioni. Tu guarda a volte le coincidenze. Dimenticavo. È gratis. E la stanno usando i nostri figli, inclusi i miei, per la DAD citata nei vari DPCM. Ho ricevuto l’altro ieri dalle rispettive direzioni didattiche l’informativa sulla privacy per l’utilizzo di GOOGLE CLASSROOM. Per assicurarmi che i miei figli potessero continuare a frequentare la scuola pubblica italiana in tempo di Covid e di DPCM ho cliccato su ACCETTA e CONTINUA…
Il Regolamento Europeo sulla Protezione dei Dati (General Data Protection Regulation o GDPR) è un documento entrato ufficialmente in vigore il 25 maggio del 2018 il cui scopo è quello di armonizzare le normative dei vari Paesi riguardanti la protezione dei dati personali di persone fisiche.
Tali misure di sicurezza e privacy si attuano anche nei confronti della posta elettronica, sia dal punto di vista della gestione degli account che dello svolgimento delle attività di e-marketing. Considerando che l’obiettivo è quello di tutelare il dato personale, ossia l’informazione che può servire ad identificare uno specifico individuo, possono sorgere alcune domande sul come vengano applicate le direttive del regolamento alle varie attività lavorative che necessitano dell’uso della posta elettronica.
A chi si applica il GDPR?
Alle aziende o enti che trattano dati personali nell’ambito delle attività di filiali stabilite nell’Unione Europea.
Alle aziende con base al di fuori dell’UE ma che offrono servizi/beni (gratuiti o a pagamento) o che monitorano il comportamento di persone fisiche all’interno dell’UE.
Le normative si applicano ai dati relativi ad una società?
No, poiché i beneficiari di tali norme sono solo le persone fisiche. Vengono però applicate a tutti i dati personali relativi alle persone fisiche di un’attività professionale, come ad esempio gli indirizzi mail o i numeri di telefono aziendali dei dipendenti.
Come si tutelano le mail aziendali?
Ciò significa che le e-mail aziendali vengono considerate dato personale quando sono nominative del dipendente (nome.cognome@dominio.it) poiché è possibile identificare e risalire ad una specifica persona grazie a questa informazione.
È dunque necessario possedere caselle di posta con dominio privato dell’azienda o con provider GDPR compliant: in questo modo si ha la garanzia di sicurezza e protezione dei dati personali.
Al contrario le società fornitrici di provider di posta gratuiti non solo non garantiscono la stessa sicurezza, non assumendosi la responsabilità riguardante la gestione dei dati, ma non danno alcuna certezza riguardo la possibiltà che i dati ricavati dalle mail dei propri clienti non vengano utilizzati da terze parti per scopi di pubblicità mirata o monitoraggio.
Claudio Martini
Information Technology Project Manager
Systems Advisor e Chief Information Security Officer. Esperto in configurazione, gestione e manutenzione di reti, infrastrutture IT, server, firewall e soluzioni di business continuity.
Dal 1995 siamo al fianco di professionisti e imprese. Negli anni IPSNet è diventato un marchio sinonimo di competenza e professionalità per assistere il cliente e orientarlo nel mondo della rete, sempre più difficile e ricco di opportunità, ma anche di insidie. Cloud Provider, soluzioni per le reti informatiche e la sicurezza dei dati nelle aziende sono, ad oggi, il nostro quotidiano impegno per centinaia di clienti che, da oltre 20 anni, ci affidano la propria informatizzazione digitale.
Hai bisogno di maggiori informazioni? Chiamaci al 011.58.07.622
La posta elettronica è un’ importante strumento di comunicazione a livello aziendale: facilita lo scambio di informazioni e contatti con clienti e fornitori, permette la gestione di impegni ed attività e risparmia tempo a mittente e destinatario rispetto a lunghe telefonate di lavoro. Ma quando gestita male questa può essere una fonte di stress e spreco di tempo; per questo motivo è utile essere in grado di utilizzare la casella di posta nella maniera più efficace.
Di seguito riportiamo alcuni punti su cui concentrarsi per avere una casella di posta più efficiente.
Archiviazione: processare e suddividere le mail in base allo stato di lettura o al topic permette di avere una casella di posta in arrivo sfoltita e di recuperare mail eventualmente già lette, e di cui abbiamo ancora bisogno, più facilmente.
Urgenza: essere in grado di classificare rapidamente i vari messaggi è estremamente utile per migliorare la propria produttività, evitando di sprecare tempo con comunicazioni meno importanti e rischiare di non avere tempo per quelle più urgenti.
Semplificazione: cancellarsi da newsletter, email pubblicitarie ed altri messaggi non inerenti ai tuoi interessi permette di ricevere solo email rilevanti che richiederanno la tua attenzione.
Client di posta professionale: utilizzare questo tipo di servizio garantisce un ottimo livello di usabilità e intuitività del sistema, oltre che sicurezza dei dati tramite servizi anti-spam e sistemi di crittografia.
Mailstore: un prodotto per aiutarti a gestire la posta
Un ulteriore strumento per utilizzare al meglio la posta elettronica è il software MailStore: crea una copia di tutte le email in un archivio centrale per garantire la sicurezza e la disponibilità dei dati. Gli utenti possono inoltre accedere alle loro email tramite Microsoft Outlook, MailStore Web Access o da dispositivi mobili, come smartphone e tablet, ed effettuare ricerche rapide in modo semplice. MailStore Server è adottata da oltre 30.000 società in 100 Paesi diversi, ciò significa che rappresenta la soluzione leader nel mondo per l’archiviazione, la gestione e la conformità legale delle email per le Piccole e Medie Imprese.
IPSNet offre l’installazione del Mail Store Server sulla vostra rete, la prima archiviazione di tutte le e-mail presenti sui dispositivi e la successiva configurazione per le archiviazioni automatiche successive oltre che il monitoraggio e la teleassistenza per il corretto funzionamento del prodotto.
I vantaggi:
Un prodotto che svuota la casella di posta copiando il tuo intero archivio e-mail aziendale direttamente dal mailserver.
Ricerca e-mail superavanzata: nel corpo, nell’ oggetto e nell’ allegato.
Facile da utilizzare dove vuoi, anche da mobile.
Condividi l’ archivio con i tuoi collaboratori.
Giorgio Bagnasco
Managed Services Specialist
Dottore in Matematica Informatica, originariamente sviluppatore di applicazioni Web, amministratore di database e project manager in una vasta gamma di applicazioni aziendali. Oggi specializzato in IT Management e System Integration, problem solving, progettazione e gestione di reti informatiche, ottimizzazione di sistemi informativi aziendali
Dal 1995 siamo al fianco di professionisti e imprese. Negli anni IPSNet è diventato un marchio sinonimo di competenza e professionalità per assistere il cliente e orientarlo nel mondo della rete, sempre più difficile e ricco di opportunità, ma anche di insidie. Cloud Provider, soluzioni per le reti informatiche e la sicurezza dei dati nelle aziende sono, ad oggi, il nostro quotidiano impegno per centinaia di clienti che, da oltre 20 anni, ci affidano la propria informatizzazione digitale.
Hai bisogno di maggiori informazioni? Chiamaci al 011.58.07.622
Se decidi di farti conoscere attraverso il web o di avviare un business online, è necessario acquistare uno spazio hosting. Si tratta di uno spazio su un server appunto, dove andrai a caricare tutte le pagine del tuo sito web. Oggi internet offre numerose possibilità di acquisto o di noleggio di un hosting e le offerte sono tante. Per scegliere l’hosting giusto devi tenere in considerazione una serie di caratteristiche che soddisfino le tue esigenze.
Che cos’è un hosting
Un hosting web server è un servizio che serve per rendere visibili su internet le pagine del tuo sito. Per questo motivo, avere un hosting è, tecnicamente, il primo passo da compiere quando si decide di sbarcare sul web, perché è lo spazio fisico dove verranno raccolti tutti i tuoi contenuti, dagli articoli alle pagine, fino ai database e ai file. Essendo un servizio, l’hosting è offerto da società specializzate, i cosiddetti “web host”, che mettono a disposizione dei propri clienti dei server dove viene, appunto, raccolto tutto il materiale che costituisce un sito web.
Tipologie di hosting
Un hosting non si acquista nel senso letterale del termine, ma si noleggia, potendo scegliere tra tre possibilità: l’hosting condiviso, il server virtuale e il server dedicato. Nel primo caso, si tratta di uno spazio che, come dice lo stesso nome, viene condiviso con altri utenti e si tratta della situazione solitamente più comoda ed economica. Se scegli il server virtuale, avrai a che fare sempre con uno spazio condiviso, ma che potrai gestire come se fosse di tua proprietà, quindi non subirai le normali conseguenze di avere dello spazio occupato da altri. Infine, il server dedicato è la soluzione ideale quando gestisci un sito già ben avviato e con importanti numeri per quanto riguarda le visite. In questo caso, il server è solo tuo e puoi gestirlo come meglio credi, anche condividendo lo spazio con altri siti.
Come scegliere l’hosting migliore per te
Lo spazio che l’hosting provider offre ai clienti. Naturalmente, la scelta dipenderà dalla quantità di contenuti che hai intenzione di caricare, quindi se il tuo sito sarà ricco di contenuti e di prodotti (come nel caso di un e-commerce), dovrai scegliere un servizio hosting che ti dia alte performance.
La scalabilità, ovvero la possibilità che il web hosting ti offre di far evolvere il tuo sito, di aggiornarlo per farlo diventare più grande. Questo ti evita di dover, magari, cambiare hosting e ricominciare tutto daccapo una volta raggiunto il limite massimo.
La semplicità di utilizzo: un pannello di controllo intuitivo.
Il supporto tecnico, un elemento essenziale quando devi scegliere il tuo hosting provider, perché avere la possibilità di rivolgersi a qualcuno per ogni evenienza è basilare per riuscire a portare avanti il tuo progetto. L’hosting che comprerai, quindi, deve assicurarti un’assistenza completa, via chat o via telefono, nella tua lingua e magari H24, in modo tale da non ritrovarti confuso e spaesato se ti rendi conto che qualcosa non va, sia per quanto riguarda il sito che la posta.
Scegliere un MSP come IPSNet ti garantirà tutto questo e non dovrai preoccupati di possibili malfunzionamenti e di lunghe attese al telefono per ricevere assistenza. Inoltre, il preventivo è ad hoc e paghi solo quello che utilizzi.
Claudio Martini
Information Technology Project Manager
Systems Advisor e Chief Information Security Officer. Esperto in configurazione, gestione e manutenzione di reti, infrastrutture IT, server, firewall e soluzioni di business continuity.
Dal 1995 siamo al fianco di professionisti e imprese. Negli anni IPSNet è diventato un marchio sinonimo di competenza e professionalità per assistere il cliente e orientarlo nel mondo della rete, sempre più difficile e ricco di opportunità, ma anche di insidie. Cloud Provider, soluzioni per le reti informatiche e la sicurezza dei dati nelle aziende sono, ad oggi, il nostro quotidiano impegno per centinaia di clienti che, da oltre 20 anni, ci affidano la propria informatizzazione digitale.
Hai bisogno di maggiori informazioni? Chiamaci al 011.58.07.622
Settore merceologico: Industria manifatturiera del comparto sicurezza
Dimensioni aziendali: 65 addetti
Il cliente, con complessa struttura IT, manifestava necessità di rinnovamento parco macchine per obsolescenza e lentezza di funzionamento.
Una errata scelta di piattaforma di virtualizzazione rendeva il lavoro quotidiano farraginoso e frustrante. Comprensibilmente vi era grande timore di affrontare una ristrutturazione globale, per i possibili impatti su tutti gli asset aziendali e un possibile blocco dell’operatività.
Soluzione: Progetto, fornitura e installazione di un nuovo sistema informatico, parallelo a quello esistente per non fermare il lavoro degli addetti e dell’azienda nemmeno per un’ora. Creazione di un sistema virtualizzato su base VMWare e architettura di rete di dominio Microsoft Windows. Migrazione di tutti i server, software, computer fissi, computer portatili, posta elettronica, calendari, appuntamenti. Disaster Recovery su cloud con test di ripristino. Monitoraggio H24 di tutti gli apparati.
Tempo di esecuzione: 5 week-end completi.
Tempo di fermo attività aziendale: ZERO.
Quali dei nostri servizi sono stati attivati per il cliente?
soluzioni informatiche
supporto tecnico
consulenza
sicurezza informatica
Giorgio Bagnasco
Managed Services Specialist
Dottore in Matematica Informatica, originariamente sviluppatore di applicazioni Web, amministratore di database e project manager in una vasta gamma di applicazioni aziendali. Oggi specializzato in IT Management e System Integration, problem solving, progettazione e gestione di reti informatiche, ottimizzazione di sistemi informativi aziendali
Dal 1995 siamo al fianco di professionisti e imprese. Negli anni IPSNet è diventato un marchio sinonimo di competenza e professionalità per assistere il cliente e orientarlo nel mondo della rete, sempre più difficile e ricco di opportunità, ma anche di insidie. Cloud Provider, soluzioni per le reti informatiche e la sicurezza dei dati nelle aziende sono, ad oggi, il nostro quotidiano impegno per centinaia di clienti che, da oltre 20 anni, ci affidano la propria informatizzazione digitale.
Hai bisogno di maggiori informazioni? Chiamaci al 011.58.07.622
L’hosting, dall’inglese host (ospite), è un servizio attraverso cui un fornitore (provider) mette a disposizione uno spazio web (web host) che consente di archiviare pagine web e renderle disponibili agli utenti. Queste pagine web fanno parte di un sito internet contraddistinto da un dominio (es. ipsnet.it) e un indirizzo IP (es. 18.197.105.52).
Le tipologie di web host possono essere diverse:
web host in condivisione: più siti differenti sono ospitati sullo stesso server;
web host virtuale: più siti differenti si trovano sullo stesso server, ma in aree differenti e indipendenti le une dalle altre;
web host: dedicata: un server viene dedicato ad un singolo utente per la gestione di uno o più siti.
Il servizio di hosting infatti permette ad un sito di essere ospitato su un server fisico o virtuale (ne abbiamo parlato qui) di proprietà di terzi, ovvero di un hosting provider.
Chi dovrebbe scegliere il servizio di hosting?
Il servizio hosting è adatto per coloro che non presentano particolari esigenze tecniche e che prevedono un numero modesto di visitatori giornalieri sul proprio sito web.
Che cos’è l’housing?
L’housing permette alle aziende che lo desiderano di avere uno spazio adatto dove depositare i server di loro proprietà esclusiva e quindi di dare in outsourcing la gestione dei loro server, pagando un servizio a canone.
Gli ISP (Internet Service Providers) infatti mettono a disposizione presso i propri data center, spazi e servizi (sicurezza, energia, condizionamento…) per ospitare i server dei propri clienti. In questo modo le aziende non devono gestire internamente i costi relativi all’uso dello spazio per i server, dell’elettricità, del raffreddamento e della manutenzione delle loro macchine. Sarà inoltre il provider ad assicurarsi che aggiornamenti, backup e manutenzione dei macchinari presenti nel proprio Data Center avvengano correttamente.
Questa soluzione garantisce che gli spazi server non vengono mai condivisi con altri utenti, ma vengano monitorati e gestiti da specialisti del settore.
Quali sono i vantaggi dell’housing?
É facile comprendere che l’ housing abbia dei vantaggi per le aziende:
riduzione dei costi aziendali dedicati;
competenza e professionalità nella manutenzione dei server aziendali;
data Center privato;
tecnologie di Disaster Recovery e Business Continuity;
monitoraggio H24/7;
assistenza telefonica;
accesso alle risorse presenti in housing tramite sistemi firewall e vpn per la sicurezza dei dati aziendali e la salvaguardia da accessi non autorizzati;
utilizzo del cloud per backup in remoto dei dati aziendali.
Stai cercando un hosting provider per il tuo sito? Pensi che la gestione dei tuoi server possa essere data in outsourcing ad un housing provider che si occupi della manutenzione e del backup? Contattaci, per un preventivo gratuito.
Giorgio Bagnasco
Managed Services Specialist
Dottore in Matematica Informatica, originariamente sviluppatore di applicazioni Web, amministratore di database e project manager in una vasta gamma di applicazioni aziendali. Oggi specializzato in IT Management e System Integration, problem solving, progettazione e gestione di reti informatiche, ottimizzazione di sistemi informativi aziendali
Dal 1995 siamo al fianco di professionisti e imprese. Negli anni IPSNet è diventato un marchio sinonimo di competenza e professionalità per assistere il cliente e orientarlo nel mondo della rete, sempre più difficile e ricco di opportunità, ma anche di insidie. Cloud Provider, soluzioni per le reti informatiche e la sicurezza dei dati nelle aziende sono, ad oggi, il nostro quotidiano impegno per centinaia di clienti che, da oltre 20 anni, ci affidano la propria informatizzazione digitale.
Hai bisogno di maggiori informazioni? Chiamaci al 011.58.07.622
Inserisci il codice fornito dall'addetto e seleziona l'immagine in base al tuo sistema operativo
Codice non valido
Aprire il file scaricato e seguire le istruzioni del nostro tecnico
Windows
Mac OS
Linux
Servizio di supporto per clienti IPSNet
Inserisci il codice fornito dall'addetto e seleziona l'immagine in base al tuo sistema operativo
Codice non valido
Aprire il file scaricato e seguire le istruzioni del nostro tecnico
Windows
Mac OS
Linux
Gestisci Consenso Cookie
Usiamo cookie per ottimizzare il nostro sito web ed i nostri servizi. Consulta la nostra Privacy Policy
Funzionale
Sempre attivo
L'archiviazione tecnica o l'accesso sono strettamente necessari al fine legittimo di consentire l'uso di un servizio specifico esplicitamente richiesto dall'abbonato o dall'utente, o al solo scopo di effettuare la trasmissione di una comunicazione su una rete di comunicazione elettronica.
Preferenze
L'archiviazione tecnica o l'accesso sono necessari per lo scopo legittimo di memorizzare le preferenze che non sono richieste dall'abbonato o dall'utente.
Statistiche
L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici.L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici anonimi. Senza un mandato di comparizione, una conformità volontaria da parte del vostro Fornitore di Servizi Internet, o ulteriori registrazioni da parte di terzi, le informazioni memorizzate o recuperate per questo scopo da sole non possono di solito essere utilizzate per l'identificazione.
Marketing
L'archiviazione tecnica o l'accesso sono necessari per creare profili di utenti per inviare pubblicità, o per tracciare l'utente su un sito web o su diversi siti web per scopi di marketing simili.
Commenti recenti