Mondo

Confermate le certificazioni Zucchetti e Microsoft anche per il 2024

Confermate le certificazioni Zucchetti e Microsoft anche per il 2024 2560 1463 Redazione Albatro

Anche quest’anno abbiamo dedicato sforzi significativi al rinnovo delle nostre certificazioni, sia tecniche che commerciali.

Essere un TOP Partner Zucchetti e un Partner Microsoft Power BI implica non solo un impegno continuo nell’eccellenza operativa, ma anche un costante aggiornamento delle competenze. Questo sforzo testimonia il nostro impegno per garantire il più alto standard qualitativo ai nostri clienti.

Investire nella formazione del nostro personale è cruciale per rimanere al passo con l’evoluzione tecnologica e le esigenze del mercato.

Le nostre certificazioni riflettono il nostro impegno verso la qualità e l’innovazione, garantendo ai clienti una partnership affidabile e all’avanguardia.

Rapporto Clusit 2024: aumento del cybercrime in Italia

Rapporto Clusit 2024: aumento del cybercrime in Italia 2560 1463 Redazione Albatro

Un aumento del 65% negli attacchi informatici in Italia, nell’arco di un solo anno, di cui oltre la metà (il 56%) ha avuto conseguenze di gravità critica o elevata. È ciò che rivela il rapporto Clusit* 2024, presentato lo scorso mese al Security Summit. La curva degli attacchi è purtroppo in crescita anche a livello globale (+12% vs 2022).

La sanità, la finanza e il manifatturiero hanno subito un duro colpo, registrando un aumento del 25% negli attacchi cyber. I settori alla base dell’economia italiana sono messi così alla prova.

L’America continua a essere un obiettivo privilegiato, ma l’Europa non è più immune. Con un aumento del 7,5% negli attacchi rispetto all’anno precedente, è chiaro che nessun paese può permettersi di abbassare la guardia.

Tra le tattiche preferite, il malware rimane il più utilizzato, ma i ransomware sono diventati la spina nel fianco delle aziende.

Questo aumento degli attacchi cyber non è solo un problema tecnico; è una sfida che richiede una risposta strategica e coordinata da parte di tutte le parti interessate. Investire in tecnologie innovative, formare il personale e promuovere una cultura della sicurezza informatica sono solo alcuni dei passi necessari per affrontare efficacemente questa minaccia in continua evoluzione.

Per questo, per Albatro Software & Consulting la sicurezza informatica è una priorità assoluta: la collaborazione con Zucchetti rappresenta, infatti, un’importante garanzia per la protezione dei dati dei clienti. Nel corso degli anni, il Gruppo ha investito considerevolmente nella costruzione e nell’aggiornamento continuo di un datacenter di proprietà. Questo datacenter, conforme agli standard più elevati di sicurezza informatica, è dotato di tutte le certificazioni necessarie e di avanzati sistemi di prevenzione e individuazione delle intrusioni, sia a livello logico che fisico. Scopri tutte le certificazioni ottenute da Zucchetti: https://www.zucchetti.it/…/certificazioni.html

 

* Associazione Italiana per la Sicurezza Informatica

AI: in arrivo le prime regole al mondo

AI: in arrivo le prime regole al mondo 2048 2048 Redazione Albatro

L’Intelligenza Artificiale (AI) è sempre più al centro dell’attenzione globale, con l’Organizzazione delle Nazioni Unite e l’Unione Europea che stanno guidando il dibattito sulla sua regolamentazione.

 

Due importanti iniziative, la Risoluzione dell’ONU sull’AI e l’AI Act dell’UE, promettono di orientarne il futuro con obiettivi comuni: promuovere un utilizzo etico dell’AI, garantire il rispetto dei diritti umani e della privacy, definire norme chiare per lo sviluppo e l’uso dell’AI, assicurare la sicurezza e la trasparenza, e favorire la cooperazione internazionale.

 

La Risoluzione dell’ONU sull’AI, adottata all’unanimità lo scorso 21 marzo dall’Assemblea Generale, non è vincolante ed esorta gli Stati membri e le parti interessate a sviluppare quadri normativi e di governance inclusivi per creare un ecosistema favorevole all’innovazione responsabile nell’AI.

 

Così ha già fatto l’Unione europea, che lo scorso 13 marzo ha approvato la prima legge al mondo sull’intelligenza artificiale, l’AI Act. Il testo (a questo link si può leggere la versione integrale) si basa su un’approfondita valutazione dei rischi associati all’uso dell’AI, imponendo una serie di doveri e responsabilità sia ai fornitori che agli utilizzatori di questi sistemi avanzati.

 

L’Unione Europea ha, dunque, compiuto un passo storico diventando la prima istituzione a regolamentare l’Intelligenza Artificiale (IA) a livello mondiale. Insieme al GDPR, al Digital Markets Act e al Digital Services Act, questa legge pionieristica conferma l’UE come punto di riferimento per la regolamentazione dell’economia digitale.

 

Architettura dei rischi

L’AI Act divide i sistemi di intelligenza artificiale sulla base di quattro categorie di rischio: minimo, limitato, alto e inaccettabile. Maggiore è il rischio, maggiori sono le responsabilità e i limiti per chi sviluppa o usa questi sistemi, fino ad arrivare ai modelli troppo pericolosi per essere autorizzati. Tra gli impieghi vietati si trovano le tecnologie subliminali per manipolare i comportamenti delle persone, la categorizzazione biometrica che fa riferimento a dai sensibili, la raccolta massiccia e illimitata di foto di volti da internet, il riconoscimento delle emozioni sul posto di lavoro o a scuola, i sistemi di punteggio sociale o social scoring e la polizia predittiva, cioè l’uso di dati sensibili per calcolare le probabilità che una persona commetta un reato.

 

Le regole non si applicano solo nel caso di attività di ricerca e sviluppo che precedono la vendita, ai sistemi destinati esclusivamente a scopi militari, di difesa o sicurezza nazionale e ai modelli gratuiti e open-source, che non siano modelli di intelligenza artificiale con “rischi sistemici”.

 

Obblighi di trasparenza

Ai sistemi di AI con finalità generali, come ChatGPT, le nuove leggi impongono maggiori requisiti di trasparenza, compreso il rispetto delle norme europee sul copyright e la pubblicazione delle fonti utilizzate per generare i contenuti. I sistemi più potenti, che potrebbero generare “rischi sistemici”, dovranno anche proporre strategie per mitigare i rischi e pubblicare report periodici sugli “incidenti” dei sistemi. Immagini, audio o video prodotti con l’IA (i cosiddetti deepfakes) dovranno essere etichettate chiaramente come contenuti artificiali.

 

Sostegno all’innovazione

Sarà obbligatorio per i Paesi UE istituire agenzie di supervisione e spazi di sperimentazione per le PMI, permettendo loro di testare sistemi basati sull’IA prima della loro immissione sul mercato.

 

Tempistiche e sanzioni

Le regole dell’AI Act entreranno in vigore gradualmente nei prossimi due anni, con divieti immediati, norme per modelli fondativi e sanzioni per chi non le rispetta. Le sanzioni vanno dall’1,5% al 7% del fatturato globale.

Back to top