Home > Notícias

TensorFlow busca aumentar a proteção dos dados de treinamento

Recursos apresentados esta semana no TensorFlow Dev Summit ajudam a ter um Machine Learning mais responsável

Da Redação

09/03/2019 às 9h21

Foto: Divulgação

No mundo do Machine Learning, a preocupação em relação ao vazamento de dados proprietário durante o desenvolvimento sempre foi uma constante.  Agora, os desenvolvedores podem manter seus dados de treinamento isolados de seus modelos de aprendizado de máquina com o TensorFlow Privacy. Uma biblioteca Python que otimiza os modelos Machine Learning sem incorrer em qualquer preocupação de privacidade.

O anúncio do TensorFlow Privacy foi feito esta semana, durante a terceira edição do TensorFlow Dev Summit, realizada em Sunnyvale, Califórnia, nos dias 6 e 7 de março.

Seguindo a teoria da Privacidade Diferencial, o TensorFlow Privacy garante que seus modelos de treinamento mantenham os dados seguros com fortes garantias matemáticas. Como? Garantindo que os detalhes raros em um conjunto de treinamento não sejam memorizados.

A biblioteca vem com tutoriais e ferramentas de análise para calcular as garantias de privacidade fornecidas. E com um Diretório de Pesquisa cheio do código necessário para reproduzir os resultados de trabalhos de pesquisa relacionados à privacidade no aprendizado de máquina.

Para facilitar o uso, arquiteturas de modelo ou procedimentos de treinamento não precisam ser alterados quando mecanismos TensorFlow padrão estão em uso, embora novos hiperparâmetros precisem ser definidos e pequenas alterações no código possam ser necessárias ao usar o TensorFlow Privacy.

Tem mais
Outra adição à família de produtos TensorFlow que deve ajudar os desenvolvedores a manter os dados confidenciais privados é o TensorFlow Federated.

Como o nome diz, o Federated Framework (TFF) inclui uma implementação de treinamento federado, que permite aos usuários treinar modelos compartilhados em vários clientes que mantêm seus dados de treinamento localmente e agregam os resultados para um modelo aprimorado posteriormente. Isso significa que, por exemplo, dados privados podem ser usados ​​para fins de treinamento, sem a necessidade de carregá-los em um ambiente central. Também pode ser útil em casos em que os dados são difíceis de transportar por motivos de recursos, por exemplo, em dispositivos Edge.

No futuro, Alex Ingerman e Krzys Ostrowski, do Google, gostariam de ver os tempos de execução da TFF nas principais plataformas de dispositivos, alinhados com as práticas de IA responsável da empresa , “integrando outras tecnologias que ajudem a proteger os dados confidenciais do usuário”, como a biblioteca TensorFlow Privacy.

Outros anúncios
Durante a conferência foram anunciados também o lançamento da versão Alpha do TensorFlow 2.0, que busca facilitar mais  o desenvolvimento e o uso do ML, e a chegada do TensorFlow.js version 1.0, que oferece melhorias significativas de desempenho, segundo a equipe do Google.

Outro lançamento importante foi o  TensorFlow Datasets , uma coleção de conjuntos de dados de ML comumente usados ​​para uso fácil no TensorFlow.

E junto com o TensorFlow 2.0 alpha, O Google está fornecendo ferramentas e documentação de conversão e migração para ajudar na transição do código 1.x para 2.0.

Além disso, foram apresentadas algumas atualizações sobre o TensorFlow Extended, o TensorFlow Lite e os novos cursos educacionais online oferecidos pela deeplearning.ai, Coursera e Udacity.

 

Junte-se a nós e receba nossas melhores histórias de tecnologia. Newsletter Newsletter por e-mail