[LuBannaiuolu] Fibra ottica a Calabritto: conviene davvero? Alcune cose da sapere e alcuni consigli utili

Sembrava ieri quando a Calabritto arrivò l’ADSL. Uno dei pochi paesi della zona ad essere raggiunto dalla linea veloce cablata, quando in altri paesi, ancora ora, arriva soltanto la linea “wireless”.

Ed oggi siamo tra i primi paesi della Valle del Sele ad essere raggiunti dalla linea ultra-veloce, quella in fibra ottica. 

Ma quali sono i reali vantaggi di questa nuova linea di trasmissione dati? Sicuramente la velocità e l’affidabilità. La trasmissione dati su fibra ottica si basa sulla propagazione di segnali ottici in cavi di fibra vetrosa o polimeri plastici e permette di essere immune ai disturbi elettromagnetici e ai fattori climatici, garantendo una capacità di banda e una velocità di trasmissione in download e upload superiore alla linea ADSL.

Grazie a tale servizio, si avrà, ad esempio la possibilità di ricevere lo streaming audio e video ad alta risoluzione, di telefonare via VOIP, di condividere file di grandi dimensioni in poco tempo, ecc.

Vantaggi che si rifletteranno sicuramente anche su professionisti ed imprese locali che fanno uso della rete Internet per le proprie attività.

Ma entriamo un po’ più nel tecnico: la velocità nominale del servizio di connettività a Calabritto arriverà al massimo a 100 Mbps (Megabit/sec), ma con una velocità effettiva che però potrebbe essere considerevolmente inferiore. Infatti, occorre considerare il “problema dell’ultimo miglio”, ossia la fibra non arriverà proprio in casa, visto che la rete di accesso all’utenza telefonica domestica continuerà ad essere costituita dal doppino di rame. 

Per intenderci, le velocità massime effettive si ottengono quando la fibra arriva dalla centrale al router domestico, senza passare per la rete telefonica tradizionale su cavo di rame; tale tipo di servizio è denominato FTTH (Fiber to the Home) e, al momento, è presente solo in poche città italiane. 

In merito agli abbonamenti, molti sono gli operatori che offrono offerte per la linea in fibra (comprensiva di chiamate telefoniche ed altri servizi), i quali hanno iniziato a chiamare i concittadini già prima che venissero ultimati i lavori di cablaggio. Il costo si dovrebbe aggirare intorno ai 25 euro al mese (in promozione iprimi 1 o 2 anni) per poi aumentare a 30-35 euro al mese. Un po’di consigli prima di scegliere l’operatore:

  • non vincolarsi ad un abbonamento che impone un numero minimo di anni prima di poter eventualmente disdire il contratto
  • chiedere all’operatore qual è la velocità minima garantita, che per legge deve essere indicata nella documentazione informativa e nel contratto telefonico
  • chiedere preventivi a più operatori, confrontando i prezzi e le offerte e, soprattutto, la velocità minima garantita.

Aldilà del fattore di attenuazione, il servizio di fibra a Calabritto avrà sicuramente velocità e affidabilità superiori rispetto a quello ADSL che, in molte abitazioni, non arriva neanche ai 5/6 Mbps (nonostante la velocità nominale massima di 20 Mbps).

Insomma, un altro passo importante ed innovativo per la Comunità di Calabritto.

[Pubblicato sul numero de LuBannaiuolu di Ottobre-Novembre 2018]

[07.07.2018] Il mio matrimonio

Il 07 Luglio 2018 io e la mia Lei ci siamo sposati.

Auguro a noi una lunga e felice vita insieme! 🙂

Creative Commons License
This work by Francesco Ficetola is licensed under a Creative Commons Attribution 4.0 International License.
Based on a work at www.francescoficetola.it.
Permissions beyond the scope of this license may be available at http://www.francescoficetola.it/?p=2885.

[Libro] Presentazione Libro “Calabritto nel 1755” il 28 Dicembre 2017 a Calabritto

Evento a cura della redazione de LuBannaiuolu, trasmesso in diretta streaming su Radio Calabritto

Appuntamento: 28 Dicembre 2017 ore 18,30 presso la Sala Consiliare del Comune di Calabritto

Interverranno:

  • Dott. Fabio Paolucci (Autore)
  • Dir. Arturo Bascetta (Editore)
  • Prof. Gelsomino Centanni (Sindaco)
  • Prof.ssa Luisa Severino (Assessore alla Cultura)
  • Prof. Giuseppe Sierchio (storico dell’arte)
  • Ing. Francesco Ficetola
  • Dott.ssa Gerardina Ficetola
  • Dott. Gelsomino Del Guercio (Giornalista – Moderatore)

Il libro “Calabritto nel 1755” è uno studio attento del Catasto Onciario di Calabritto, redatto per ordine di Carlo III di Borbone, il quale il 17 marzo 1741 diede avvio a questo grande progetto di censimento dei beni in tutto il Regno di Napoli.
Nel testo vengono riportate tutte le rivele (dichiarazioni dei redditi) di tutte le famiglie calabrittane, descrivendo uno ad uno tutti i nuclei familiari nelle loro composizioni e nelle proprietà che i capifamiglia possedevano.

Lo studio analitico del Catasto Onciario di Calabritto consente di approfondire aspetti sociali ed economici della vita del paese nel Settecento.
Attraverso l’analisi dei cognomi tipici del luogo e già attestati nel Settecento è possibile ricostruire un profilo storico e genealogico di tutte le famiglie di Calabritto.

Il libro fa parte della Collana Catasti Onciari del Regno di Napoli, edito da ABE – Arturo Bascetta Edizioni di Avellino.

Della stessa collana è il libro “Quaglietta nel 1754”, del quale si farà cenno e che sarà disponibile al pubblico la sera dell’evento.

Locandina Presentazione
Titolo: Locandina Presentazione "Calabritto nel 1755" (0 click)
Etichetta:
Filename: locandina-paolucci-2-2.pdf
Dimensione: 1 MB

Locandina Presentazione Libro "Calabritto nel 1755"

 

[Libro] “Calabritto nel 1755” di Fabio Paolucci

Fabio Paolucci, Calabritto nel 1755, ABE, Avellino 2017

Collana: “Catasti Onciari del Regno di Napoli”

CASA EDITRICE: ABE – Arturo Bascetta Edizioni di Avellino

 

Il libro “Calabritto nel 1755” è uno studio attento del Catasto Onciario di Calabritto, redatto per ordine di Carlo III di Borbone, il quale con le “istruzioni” emanate dalla Regia Camera della Sommaria di Napoli il 17 marzo 1741 diede avvio a questo grande progetto di censimento dei beni in tutto il Regno di Napoli.

Anche l’Università di Calabritto (l’Universitas era l’antico Comune), che era in Principato Citeriore, rispose all’appello insieme a tutte le altre città, terre e casali del Regno, ultimando nel 1755 la “confezione” del suo catasto, detto Onciario in quanto la valutazione dei patrimoni sia immobiliari che da bestiame o finanziari, veniva stimata in base all’unità monetaria teorica di riferimento, l’oncia, corrispondente a sei ducati.

Il Catasto Onciario di Calabritto è composto da ben 5 volumi manoscritti, che comprendono gli “Atti preliminari”, ossia tutti gli atti che riguardano l’organizzazione dei lavori per la redazione del Catasto, dai bandi pubblicati da “Sindico” ed “Eletti” ai verbali dei “pubblici parlamenti” nella piazza per le nomine dei deputati e degli apprezzatori, le “rivele” che erano una sorta di dichiarazione dei redditi fatta da ogni capofamiglia, l’ “apprezzo”, ossia la valutazione di tutti i beni dichiarati, ed il “catasto onciario” vero e proprio, in cui è riportata per ogni capofamiglia la tassazione in once.

L’autore ha studiato approfonditamente tutte le parti che compongono questo preziosissimo documento storico, il cui originale è conservato presso l’Archivio di Stato di Napoli, nel fondo della Regia Camera della Sommaria (buste 4087-4091).

Tutte le “rivele” con le relative tasse in once sono state analizzate meticolosamente, una ad una, e trascritte in sintesi in una completa Appendice Documentaria: ben 345 famiglie, 33 vedove e vergini in capillis (ossia le donne di età maritabili non sposate), i “forastieri abitanti laici” ed i “forastieri bonatenenti” non abitanti, diverse chiese, cappelle e congreghe, nonché una decina di parroci formavano la popolazione di Calabritto nella metà del Settecento.

Dopo una breve introduzione storica, nel capitolo unico introduttivo, diviso in 5 paragrafi (1. “La confezione del General Catasto nella Terra di Calabritto”; 2. “Mestieri, professioni e società”, 3. “I cognomi”; 4. “I luoghi di Calabritto nel Catasto Onciario”; 5. “I luoghi pii”), viene descritta la società calabrittana della metà del Settecento sotto tutti gli aspetti, da quello socio-culturale a quello più strettamente urbanistico (toponomastica e localizzazione delle contrade), con una descrizione delle antiche contrade che formavano il borgo.

Segue una dettagliata Appendice Documentaria in cui l’autore ha riportato tutte le “rivele” (dichiarazioni dei redditi) di tutte le famiglie calabrittane, descrivendo uno ad uno tutti i nuclei familiari nelle loro composizioni e nelle proprietà che i capifamiglia possedevano.

Un esempio di rivela, estrapolata dal libro, è il seguente: «Il bracciale Antonio Perna di Giuseppe di 40 anni abita in casa propria a San Pietro e possiede 4 pecore, un somaro, vigne alle Saude, alle Fosse e alla Serra, un terreno seminatorio alle Caldare, un castagneto alla Valle di Vitale e un oliveto alle Coste dell’Ogliaro. Vive con la moglie Rosa Castagno di 36 anni e con i figli Silvestro lattante, Angela in capillis di 8 anni e Catarina di 5 anni. Nella stessa casa vive pure il fratello Pasquale Perna bracciale di 24 anni».

Lo studio analitico del Catasto Onciario di Calabritto ha consentito di approfondire aspetti sociali ed economici della vita del paese nel Settecento. Poche famiglie agiate dimostrano la presenza di un notabilato locale con notevole potere economico in una società divisa rigorosamente nei tre ceti “de’ Civili”, “de’ mediocri” e “degl’inferiori”; l’artigianato era vivace e proficuo, consentendo vere e proprie redditizie attività imprenditoriali come quelle dei “sartori”, degli “scarpari” e dei “barilari” (produttori di barili).

Infine, attraverso l’analisi dei cognomi tipici del luogo e già attestati nel Settecento è possibile ricostruire un profilo storico e genealogico di tutte le famiglie di Calabritto. Tra i cognomi più diffusi all’epoca, troviamo: Spatola, Centanni, Del Guercio, Rizzolo, Gonnella, Mattia, Raimo, D’Alessio, Grillo, Parisi, Perna, Ficetola, Megaro, Corbo, Quartuccio, Viscido, Burdo, Calcagno, Castagno, Filippone, Moretto, Zecca, Cardellicchio, Del Plato, Di Marco, Dragonetto, Gigante, Lione, Pucillo, Vetracchio, Carluccio, Di Gregorio, Di Nicola, Di Popolo, Di Trolio e Farella.

Il testo verrà presentato a Calabritto durante il periodo natalizio, in data da definire, insieme ad un altro libro sul Catasto Onciario di Quaglietta, opera degli autori Del Bufalo e dello stesso editore Bascetta.

 

BIOGRAFIA AUTORE:

FABIO PAOLUCCI (Salerno, 1982) – Appartenente ad antica famiglia di Colle Sannita (BN), è ricercatore storico presso l’Archivio del Capitolo di San Pietro in Vaticano, archivista, saggista e giornalista pubblicista. Laureato con lode in ‘Beni Culturali’ e in ‘Gestione e conservazione del patrimonio archivistico e librario’, si è specializzato in ‘Archivistica, Paleografia e Diplomatica’ presso la Scuola dell’Archivio di Stato di Napoli.

Tra le sue pubblicazioni: La famiglia Di Popolo da Calabritto. Storia, genealogia e documenti di un’antica famiglia contadina irpina (Boopen, 2010), Le famiglie campane. Tra storia, genealogie e personaggi illustri (Kairós, 2012), Francesco Flora. Le radici, l’uomo, la storia (Fausto Fiorentino Editrice, 2012) e quattro volumi per il Capitolo di San Pietro in Vaticano sulle epigrafi pagane e cristiane dell’area vaticana (ECV – Edizioni del Capitolo Vaticano, 2013-2015). Ha già pubblicato, per la presente collana Catasti Onciari del Regno di Napoli, i volumi Colle Sannita nel 1742, Praiano nel 1752 e Reino nel 1753 (ABE 2017). Sono in preparazione i testi sui Catasti Onciari di Nereto (TE), Cetara (SA) e Bonito (AV).

 

"Calabritto nel 1755" - Copertina del Libro

Premio FORUM PA 2017: 10×10 = cento progetti per cambiare la PA

Al FORUM PA 2017 sono stati presentati i vincitori del “Premio FORUM PA 2017: 10×10 = cento progetti per cambiare la PA”. La mia azienda, l’Istituto Poligrafico e Zecca dello Stato (IPZS), ha partecipato con il progetto “BusinessContinuity, Disaster Recovery & Cyber Physical Security Center“, posizionandosi tra i primi 5 vincitori del premio. Personalmente ho partecipato attivamente all’iniziativa progettuale denominata “CYPSEC” (Cyber Physical Security Center), che prevede la realizzazione di una Centrale Operativa per il monitoraggio, il controllo e l’incident detection/response degli eventi di sicurezza logica e fisica, in grado di individuare le vulnerabilità e gestire le situazioni di pericolo.

Tale riconoscimento gratifica e premia il lavoro fatto insieme ai miei colleghi.

Di seguito gli abstract del progetto e il riconoscimento conferito ad IPZS:

Forum PA Challenge 2017 - IPZS - BC, DR e CYPSEC

Forum PA Challenge 2017 - CYPSEC
Titolo: Forum PA Challenge 2017 - CYPSEC (0 click)
Etichetta:
Filename: premioforumpa-ipzs-bcdrcypsec-170414102933-1.pdf
Dimensione: 693 KB

FORUM PA 2017: Premio IPZS

Riferimenti:

[NoSQL] Implementare un Document Store NoSQL con Oracle 12c e le SODA API

Avete intenzione di implementare una schemaless application, memorizzando le informazioni in modo “dinamico” e flessibile, secondo il cosiddetto paradigma “NoSQL style document store”?

Anche Oracle DB, a partire dalla versione 12.1.0.2, fornisce il supporto per la memorizzazione, l’indicizzazione e la ricerca di documenti in formato JSON.

Oracle12c

Più dettagliatamente, Oracle DB 12c permette, senza necessità di installare plugin aggiuntivi, l’implementazione di un Document Store e fornisce il seguente set di API, progettate per garantire il supporto allo sviluppo di schemaless application:

  • SODA for Java: interfaccia di programmazione document-store per sviluppatori Java che usano JDBC per comunicare con il database. SODA for Java consiste di un set di semplici classi che rappresentano il database, una collezione di documenti e un documento. I metodi di queste classi forniscono tutte le funzionalità richieste per gestire ed interrogare documenti e collezioni di documenti memorizzati in un database Oracle;
  • SODA for REST: interfaccia REST-based document-store implementata come Java servlet e distribuita come parte dell’Oracle REST Data Services (ORDS) 3.0. Le applicazioni basate su SODA for REST usano il protocollo HTTP per comunicare con la Java Servlet. SODA for REST Servlet può anche essere eseguito su un HTTP Server nativo del database (esistono versioni “bundle” di Web Server, come TomCat e JBoss opportunamente configurati per accedere al DB Oracle tramite API SODA). I metodi HTTP come PUT, POST, GET e DELETE mappano le operazioni eseguite sui documenti JSON. Fornendo API di tipo REST è possibile integrare la soluzione con web application esterne per esporre i dati memorizzati nella base dati Oracle.

Riferimento: http://www.oracle.com/technetwork/database/appdev-with-soda-2606220.pdf

Modello relazionale VS. Modello No-SQL. Volendo comparare un database relazionale con un DB NoSQL “document-store”, è possibile dire che:

  • Una collezione di documenti è una tabella
  • Un documento è una riga di una tabella
  • Un campo del documento è una colonna della tabella

I documenti in formato JSON vengono memorizzati con un ID univoco all’interno di una collezione. Per ciascun documento è possibile recuperare metadati, come data di creazione, dati di aggiornamento, owner e versione del documento, ecc.

Le funzionalità offerte da un document store includono:

  • Creazione e cancellazione di una collezione
  • Creazione, ricerca, aggiornamento o cancellazione di un singolo documento in base al suo ID
  • Recupero dei documenti in una collezione
  • Ricerca di una collezione, tipicamente utilizzando Query By Example (QBE) metaphor
  • Creazione e cancellazione di indici

Dato questo semplice livello di funzionalità fornito da un document store, l’API diventa semplice, particolarmente quando comparato con le tradizionali API SQL-based come JDBC.

Il DBMS Oracle già forniva dalla versione 9 il supporto alla memorizzazione, alla ricerca e all’indicizzazione di documenti XML. Oracle Database 12c estende tale funzionalità ai documenti JSON, introducendo le due implementazioni dell’interfaccia SODA, denominate, come suddetto, SODA for REST e SODA for JAVA, e ponendosi sul mercato come valida alternativa tra i NoSQL-style Document Store.

Oracle NoSQL-style Document Store Capabilities. In Oracle DB 12c, i documenti vengono memorizzati, indicizzati e ricercati senza che il database ne conosca la struttura (schemaless). Ciò lascia agli sviluppatori la libertà di modificare la struttura dei documenti JSON in base alle esigenze. Non esiste un datatype dedicato per memorizzare i documenti JSON, ma gli stessi vengono memorizzati con i tipi standard VARCHAR2, CLOB e BLOB. Viene introdotto il nuovo constraint “IS JSON”, utilizzato per assicurare che il contenuto di una colonna sia un JSON valido, fornendo pieno supporto al trattamento avanzato dei JSON, come disaster recovery, replication, compression ed encryption.

Inoltre, è possibile eseguire delle query SQL direttamente sulle tabelle di documenti JSON del database utilizzando le JSON Path Expressions. Tali espressioni sono equivalenti al linguaggio xPath in XML e sono sintatticamente simili a JavaScript. Si riportano di seguito degli esempi:

JsonPathExpressions.png

SODA API. SODA fornisce un set di API semplice da utilizzare per lavorare con i documenti memorizzati in un Oracle Database. L’oggetto Database, che è richiesto per interagire con le Collections, viene istanziato usando un database connection con le API SQL standard di Oracle. La versione corrente di SODA adotta una strategia di optimistic locking, ma quella di pessimistic locking èsarà probabilmente disponibile nelle future release.

La specifica SODA definisce un set di metodi che forniscono le seguenti funzionalità:

  • Stabilire una connessione ad un Oracle Database Document Store
  • Creare e cancellare una collezione
  • Creare, ricerca, aggiornare e cancellare un documento
  • Elencare i contenuti di una collezione
  • Ricercare una collezione di documenti che “matchino” una espressione Query By Example (QBE)
  • Operazioni di “bulk insert” in una collezione
  • Creazione e cancellazione di indici

Di seguito, riporto alcune caratteristiche dell’implementazione “SODA for JAVA”, tralasciando “SODA for REST” (utile nel caso ci si voglia interfacciare direttamente con il Document Store con il paradigma REST).

SODA for JAVA. Consiste di un set di semplici classi che rappresentano un database, una collezione di documenti e il documento stesso. I metodi che queste classi forniscono permettono di gestire e ricercare le collezioni e i documenti JSON memorizzati. Utilizza una connessione JDBC standard e SQL*NET per comunicare con il database: ciò significa che le API sono transazionali e una serie di operazioni SODA può generare una singola transazione. Poiché SODA utilizza una connessione JDBC, è possibile utilizzare sia le API di SODA for JAVA che quelle tradizionali JDBC.

Di seguito, si riportano le principali classi di “SODA for JAVA” con relativa descrizione:

Classe Descrizione Commenti
OracleClient Classe client generica SODA. L’entry point di SODA per i JSON.
OracleRDBMSClient La classe Client dell’Oracle Database Usata per recuperare l’oggetto OracleDatabase
OracleDatabase Rappresenta un Document Store, il quale consiste di uno o più collezioni. Usato per accedere alle collezioni.
OracleDatabaseAdmin Usato per creare e cancellare collezioni
OracleCollection Rappresenta una collezione di un Document Store
OracleCollectionAdmin Usato per creare e cancellare indici
OracleDocument Rappresenta un documento in un Document Store Aggiorna (o crea) il documento con un dato ID

Struttura di un documento di una collezione. Di seguito, si riporta la struttura SQL di una collezione rappresentata su una tabella Oracle e contenente il JSON in corrispondenza di una colonna CLOB:

Name                                             Null?   Type

—————————————– ——– —————————-

ID                                              NOT NULL VARCHAR2(255)

CREATED_ON                                      NOT NULL TIMESTAMP(6)

LAST_MODIFIED                                   NOT NULL TIMESTAMP(6)

VERSION                                         NOT NULL VARCHAR2(255)

JSON_DOCUMENT                                     CLOB

Le colonne della tabella rappresentano quanto segue:

 ID ID autogenerato del singolo record
 JSON_DOCUMENT Contenuto del documento in JSON
 CREATED_ON Timestamp (autogenerato) di inserimento del record
 LAST_MODIFIED Timestamp (autogenerato) di modifica del record
 VERSION Versione del documento (incrementato automaticamente quando viene modificato)

Per dettagli sulle API di SODA e sulla potenza espressiva delle Query By Example per la ricerca dei documenti di una collezione: http://docs.oracle.com/cd/E63251_01/doc.12/e58124/soda.htm#ADSDA107

Memorizzazione dei documenti JSON (codifica e datatype). Un documento JSON può essere considerato un dato semi-strutturato, ossia non conforme alla struttura formale dei modelli di dato associato con le basi di dati relazionali. Esso, comunque, contiene etichette o altri marcatori per separare gli elementi semantici e rafforzare le gerarchie di record e campi all’interno del dato. E’ anche conosciuto come “dato senza schema” o “dato con struttura autodescritta”.

Oracle raccomanda di memorizzare tali dati utilizzando datatype di tipo LOB, in quanto la quantità di caratteri può essere elevata (maggiore di 4000 byte e, dunque, della massima capacità di un datatype VARCHAR2). I datatype raccomandati per i contenuti testuali sono Characted Large Object (CLOB) e National Character Large Object (NCLOB).

Il datatype CLOB è raccomandato per la memorizzazione di stringhe o documenti di lunghezza fissa. Invece, il datatype NCLOB è raccomandato per quelli a lunghezza variabile.

Riferimento: https://docs.oracle.com/database/121/ADXDB/json.htm#ADXDB6252

Per quanto riguarda il character encoding, conviene adottare quello AL16UTF16 o AL32UTF8. In particolare, Oracle raccomanda l’uso di AL32UTF8 per memorizzare i dati con caratteri Unicode.

Riferimenti:
https://docs.oracle.com/cd/E11882_01/appdev.112/e18294.pdf
https://docs.oracle.com/database/121/NLSPG/ch2charset.htm#NLSPG179

Sicurezza dei dati. Al fine di salvaguardare la sicurezza e l’integrità dei dati,è possibile sfruttare il meccanismo di Oracle Secure Files, il quale consente anche le compressione dei dati memorizzati all’interno di datatype LOB.

Riferimento: https://docs.oracle.com/database/121/ADLOB/toc.htm

[BigData] ELK Stack: ElasticSearch + Logstash + Kibana

ELK Stack

Nel presente articolo riporto alcune informazioni rilevanti relative all’ ELK Stack, set di tecnologie open-source più diffuse e utilizzate per l’implementazione di una soluzione di Log Management, costituito dai seguenti prodotti:

  • ElasticSearch: server di ricerca basato su Lucene, e, dunque, con capacità “full-text”, e con supporto ad architetture distribuite e su larga scala. Le modalità di interazione e di interrogazione con la base dati proprietaria (su file system) avvengono attraverso interfaccia RESTful. Le informazioni sono memorizzate internamente come documenti JSON; Riferimento: https://www.elastic.co
  • LogStash: progetto Open Source scritto in JRuby, distribuito in formato JAR, la cui funzione principale è quella di fare il pipe di un qualsiasi evento, che può essere un log di sistema, una riga di testo, un tweet, ecc. Logstash può interfacciarsi con numerosi input, elaborarli, filtrarli e passarli ad un motore di ricerca o memorizzazione, come MongoDB, Redis, ElasticSearch e molto altro, configurando (attraverso un opportuno file di configurazione) la pipeline per l’acquisizione, il filtering e l’invio dei dati. L’integrazione con ElasticSearch è quella più potente e veloce per l’implementazione di una soluzione di log managementRiferimento: https://www.elastic.co/products/logstash
  • Kibana: è un tool che permette di visualizzare, grazie a strumenti di data analytics, le informazioni indicizzate ed acquisite da ElasticSearch o altri prodotti. Permette la rappresentazione delle informazioni in tempo reale, attraverso dashboard configurabili con vari tipi di widget (pie chart, istogrammi, grafici cartesiani, ecc.). Riferimento: https://www.elastic.co/products/kibana

La soluzione ELK Stack permette di implementare differenti modelli architetturali di alta scalabilità. Per maggiori dettagli su LogStash, vi consiglio il seguente riferimento: LogStask Book. Si riportano, di seguito, alcuni dei modelli di riferimento dell’ELK stack.

Modelli di riferimento: soluzioni con ELK Stack

Soluzione di base
La soluzione di base proposta da ELK Stack prevede la configurazione di una singola istanza di LogStash in modo da acquisire i dati non strutturati da differenti sorgenti. E’ possibile configurare più istanze di LogStash (Agent Shipper), in modo da acquisire i dati da datasource differenti ed indirizzare le informazioni strutturate (documenti JSON) ad un’unica istanza di ElasticSearch. Quest’ultimo effettua l’indicizzazione e la memorizzazione dei documenti JSON acquisiti.

ELKStack_SoluzioneBase

Tramite un file di configurazione è possibile far puntare l’istanza agent di LogStash ad uno o più datasource (SysLog Server, File System, DBMS, ecc.), grazie all’utilizzo di vari input plugin.

Inoltre, è possibile configurare le destinazioni, a cui inviare i documenti JSON degli eventi acquisiti, utilizzando vari output plugin. Il parsing e il filtering degli eventi acquisiti dai vari datasource può essere configurato grazie a filter plugin.

ELKStack_SoluzioneBase

Di seguito, si riporta un esempio di trasformazione di un evento di log in formato SysLog (formato non strutturato) in un documento JSON (formato strutturato):

SysLog Message:

Dec 17 16:00:35 joker systemd-logind[2113]: New session 31581 of user bob.

JSON Log Event:

{
  "host" : "joker.example.com",
  "priority" : 13,
  "timestamp" : "Dec 17 16:00:35",
  "logsource" : "joker.example.com",
  "program" : "bob",
  "pid" : "23262",
  "severity" : 5,
  "facility" : 1,
  "facility_label" : "user-level",
  "severity_label" : "Notice",
  "@timestamp" : "2012-12-17T16:00:35.000Z",
  "@version" : "1",
  "message" : "New session 31581 of user bob",
  "type" : "syslog"
}

Soluzione con coda di messaggi
Quando i dati inviati alla pipeline di LogStash eccedono l’abilità del cluster di ElasticSearch di poterli prendere in input, conviene utilizzare un message queue come buffer. Prevedendo un message queue nell’architettura si garantisce un livello di protezione per evitare la perdita dei dati. In questo modo si riesce ad evitare la congestione dell’istanza Indexer, la quale “scoda” i messaggi sulla coda uno alla volta e in maniera asincrona.

ELKStack_SoluzioneCodaJMS

Soluzione ad alta affidabilità
ELKStack_SoluzioneAltaAffidabilità

La soluzione su rappresentata è quella più completa dal punto di vista dell’alta affidabilità. Grazie ad un bilanciatore è possibile instradare differenti datasource verso una istanza agent di LogStash attiva ed inviare il messaggio di evento sul message queue. In pratica, ogni istanza agent di LogStash viene configurata su input multipli e l’architettura può essere scalata orizzontalmente. Pipeline separate incrementano, dunque, la reliability del sistema ed eliminano i single points of failure.

Modello per la memorizzazione degli eventi
Nella soluzione con l’ELK Stack, il prodotto ElasticSearch usa Apache Lucene per la creazione degli indici. Ogni indice è un namespace logico che permette di recuperare tutti gli eventi collezionati nella base dati NOSQL di ElasticSearch. Di default, LogStash invia il documento JSON sull’indice che ha nel nome il suffisso del giorno di acquisizione dell’evento, ad esempio: logstash-2015.11.31.

Questo tipo di memorizzazione potrebbe essere preso come riferimento per collezionare le informazioni in tabelle/indici creati su base temporale (ad esempio, mensilmente). In questo modo si potrebbero salvare tutti gli eventi su base temporale, evitando di caricare di troppi record una singola tabella. Tale scelta dipende anche dai tipi di correlazione che occorrerà fornire per la Log Analysis.

Volendo comparare il modello di memorizzazione di ElasticSearch con quello di un database relazionale si ha che:

  • Un index è una tabella
  • Un document è una riga della tabella
  • Un field è una colonna della tabella.

 

Per maggiori dettagli vi rimando ai tutorial su Mokabyte:

 

[ECODAY] La giornata ecologica a Calabritto – ECODAY 2016

Il giorno 26 Agosto scorso si è tenuta la 3° Edizione dell’ECODAY a Calabritto, una giornata ecologica organizzata insieme agli amici de @LuBannaiuolu, della @Comunità Parrocchiale Calabritto e di @MarcusAntonius Russus LoScrigno Quaglietta, con il patrocinio del Comune di Calabritto.

https://www.facebook.com/events/1766324133644762/

L’evento ha avuto l’obiettivo di sensibilizzare il problema della pulizia delle aree verdi delle nostre montagne e ripulirle dall’immondizia lasciata da gente noncurante. Purtroppo, la partecipazione all’evento da parte dei giovani di Calabritto è stata scarsa (come nella passata edizione del 2011 è stata ammirevole la presenza dei Quagliettani).

Nelle aree dove siamo intervenuti abbiamo trovato di tutto, dai rifiuti da pic-nic a materiale ingombrante. Vere discariche a cielo aperto, nei boschi del Parco Regionale dei Monti Picentini. Dopo il tanto lavoro, abbiamo pranzato tutti insieme al Gaudo e, nonostante eravamo pochi, lo spirito dell’iniziativa e la voglia di divertirsi non sono mancati.

L’album delle foto dell’Ecoday sono state caricate su Facebook a questo link: Foto ECODAY 2016

ECODAY 2017

14086380_1094246387334106_5205499631721966594_o

[Storia&Folklore] Quaglietta Ieri & Oggi (di Dina Ficetola)

Sono orgoglioso di pubblicizzare la presentazione del testo storico “Quaglietta Ieri e Oggi” di mia sorella, la dott.ssa Dina Ficetola.

L’evento si terrà Domenica 3 gennaio ore 19.00 presso la Chiesa Santa Maria del Carmine di QuagliettaIl lavoro, condotto con costanza, pazienza e grande impegno, è un grande regalo per la Comunità del nostro paese, soprattutto per la frazione Quaglietta, perché tiene vivi la memoria, le tradizioni e il folklore di un popolo la cui storia è stata davvero ricca. Opera di memoria e storia da tramandare alle generazioni future.

Quaglietta_Ieri&Oggi_Locandina

Quaglietta_Ieri&Oggi_Presentazione

Quaglietta_Ieri&Oggi_Presentazione
Titolo: Quaglietta_Ieri&Oggi_Presentazione (0 click)
Etichetta:
Filename: quaglietta_ierioggi_presentazione.pdf
Dimensione: 516 KB

 

Protetto: [BigData&NoSQL] Log Management: un caso d’uso di Big Data e di Operational Intelligence

Il contenuto è protetto da password. Per visualizzarlo inserisci di seguito la password: