Durante sua participação no evento ‘Google Cloud Generative AI Live + Labs’, nesta sexta-feira (11/8), ela assegurou que a empresa preserva os dados de seus clientes e que a segurança é um dos pilares para a construção das ferramentas.
As políticas da empresa para a inteligência artificial generativa incluem governança de dados e privacidade, suporte para segurança e conformidade, confiabilidade e sustentabilidade, segurança e responsabilidade. "Você é o proprietário e controla seus dados, não o Google", apontou.
A Google defende que faz um "uso responsável de dados para inteligência artificial e machine learning" estabelecendo, como compromissos com seus clientes, a não utilização de dados desses usuários para treinar e melhorar os modelos da empresa. "Os dados dos clientes são processados exclusivamente de acordo com suas instruções", destacou. Ela ainda garantiu que os usuários podem ter certeza que seus dados estão protegidos de outros clientes, usuários e funcionários não autorizados do Google.
Essa garantia pode parecer contraditória com o diferencial da ferramenta, que se aperfeiçoa de acordo com o cliente. Para isso, o Google processa prompts para fornecer o serviço. Esses comandos são criptografados em trânsito. "Google não utiliza dados de prompts para treinar seus modelos sem o consentimento expresso de seus clientes", ressaltou, garantindo que os dados inseridos são protegidos em todas as etapas e que os clientes têm a possibilidade de apagar essas informações quando quiserem.
Como garantir a segurança
A especialista ainda descreveu o que chamou de controles de segurança da empresa. Um deles é o uso de nuvem privada virtual (VPC), que protege contra ações acidentais ou direcionadas de entidades externas ou internas, minimizando riscos indevidos de exfiltração de dados.
Outro recurso são as chaves de criptografia gerenciadas pelo cliente e o acesso transparente a logs de registro em tempo quase real, com informações sobre quando os administradores do Google Cloud acessam seu conteúdo e a justificativa de acesso.
Inteligência artificial responsável
Em outro ponto, Brisa apontou quais são os princípios do Google em relação à construção da inteligência artificial. A lista inclui beneficiar a sociedade, evitar tendências injustas, ser responsável com as pessoas e manter os altos padrões de excelência cientifica. Existe também um compromisso de não contribuir para causar prejuízos gerais ou danos fisicos, além de não violar normas internacionais, em especial, os direitos humanos. Para isso, o processo de revisão da IA busca identificar, avaliar e mitigar possível impacto negativo que a tecnologia pode trazer.