Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

ChatGPT: Microsoft testa una versione privata

Microsoft itesta una versione di ChatGPT incentrata sulla privacy per soddisfare le esigenze del settore sanitario, finanziario e bancario.
ChatGPT: Microsoft testa una versione privata
Microsoft itesta una versione di ChatGPT incentrata sulla privacy per soddisfare le esigenze del settore sanitario, finanziario e bancario.
Link copiato negli appunti

Stando a quanto emerso nel corso delle ultime ore, Microsoft sta pianificando il lancio di una versione incentrata sulla privacy di ChatGPT, in risposta alle preoccupazioni che i dati delle persone possano essere adoperati per la formazione di modelli di intelligenza artificiale.

ChatGPT: Microsoft sperimenta una versione incentrata sulla privacy

Si tratta di una mossa che è destinata ad assolvere alle esigenze di settori quali quello dell'assistenza sanitaria, della finanza e delle banche che si sono astenuti dall'adoperare ChatGPT a causa del potenziale rischio che il loro personale condivida informazioni sensibili con il sistema.

Andando più in dettaglio, questa speciale versione di ChatGPT verrà eseguita su server cloud dedicati dove i dati saranno mantenuti separati da quelli di altri clienti. I dati su questi server dedicati saranno isolati dal sistema ChatGPT principale per garantire la privacy.

Ovviamente si tratterà di un'opzione a pagamento, con costi che dovrebbero essere sino a dieci volte superiori di quanto attualmente richiesto per accedere alla versione Plus di ChatGPT. L'arrivo è previsto per la fine del trimestre corrente.

Il colosso di Redmond sta già chiedendo alle aziende se sono interessate alla novità in questione, in quanto molti clienti esistenti hanno contratti con Azure che potrebbero rivelarsi utili nella gestione dei dati in modo sicuro.

Da tenere presente che il servizio di AI incentrato sulla privacy di Microsoft può rappresentare un punto di svolta per le aziende che tendono a trattare dati importanti e sensibili. Per fare degli esempi concreti, Samsung ha vietato ai suoi dipendenti di utilizzare chatbot di intelligenza artificiale generazionali al lavoro o su dispositivi che adoperano per lavoro quando ha scoperto che alcuni dei suoi dipendenti avevano caricato il codice sorgente dell'azienda.

Ti consigliamo anche