Want to create interactive content? It’s easy in Genially!

Get started free

Companion AI: guida all'uso consapevole

Corporate University

Created on March 17, 2026

Start designing with a free template

Discover more than 1500 professional designs like these:

Akihabara Connectors Infographic

Essential Infographic

Practical Infographic

Akihabara Infographic

Vision Board

The Power of Roadmap

Artificial Intelligence in Corporate Environments

Transcript

Companion AI: guida all'uso consapevole

Come orientarsi tra algoritmi e benessere psicologico

SALUTE E BENESSERE PSICOLOGICO

GESTIONE DELLE INFORMAZIONI

Inganno della familiarità

Empatia simulata

Competenze cliniche non certificate

Tracciamento commerciale

Rischio di isolamento

Difficile controllo sui dati

Se hai un problema o stai attraversando un momento difficile ricorda che puoi trovare supporto nelle figure familiari attorno a te, in amici reali o in figure professionali specializzate.

L’AI non è uno strumento clinico e pertanto non è in grado di gestire problemi di salute mentale che richiederebbero un supporto professionale.

La maggior parte delle app di companion AI raccoglie dati per il tracciamento pubblicitario. Informazioni intime possono essere collegate anche all'ID del tuo dispositivo per creare profili commerciali mirati.

Più il chatbot appare umano e amichevole, più è probabile che l’utente sia indotto ad abbassare le proprie difese, condividendo dettagli profondamente intimi che non affiderebbe mai a un normale software.

L’AI ha una memoria persistente ed è estremamente difficile, se non impossibile, garantire la cancellazione totale o la modifica di quanto condiviso.

La maggior parte delle app di companion AI raccoglie dati per il tracciamento pubblicitario. Informazioni intime possono essere collegate anche all'ID del tuo dispositivo per creare profili commerciali mirati.

L'AI simula un dialogo rassicurante e professionale, ma non offre un supporto emotivo reale.

L'AI simula un dialogo rassicurante e professionale, ma non offre un supporto emotivo reale.

Più il chatbot appare umano e amichevole, più è probabile che l’utente sia indotto ad abbassare le proprie difese, condividendo dettagli profondamente intimi che non affiderebbe mai a un normale software.

Un uso eccessivo può portare a una disconnessione dalla realtà e all'indebolimento dei legami autentici.

Un uso eccessivo può portare a una disconnessione dalla realtà e all'indebolimento dei legami autentici.

L’AI non è uno strumento clinico e pertanto non è in grado di gestire problemi di salute mentale che richiederebbero un supporto professionale.

L’AI ha una memoria persistente ed è estremamente difficile, se non impossibile, garantire la cancellazione totale o la modifica di quanto condiviso.