Seguindo os passos de outras empresas, a Apple restringiu o uso do ChatGPT e de demais ferramentas externas de inteligência artificial para alguns funcionários, de acordo com um documento analisado pelo The Wall Street Journal.
Segundo a reportagem, a Apple está preocupada que os funcionários os quais usam esses serviços possam acabar vazando dados confidenciais. A Maçã também alertou seus colaboradores sobre o uso do GitHub Copilot, que automatiza a programação de códigos de software.
A preocupação da Apple tem fundamento. Isso porque quando as pessoas usam essas ferramentas, os dados são enviados de volta ao desenvolvedor para aprimoramentos desses modelos, apresentando o potencial de vazamento de informações confidenciais — basicamente a antítese do que a Apple defende.
Como dissemos, várias organizações também adotaram medidas cautelosas em relação ao uso dessas tecnologias, pois seus funcionários começaram a usá-la para diversas tarefas — desde escrever emails e material de marketing até programação —, incluindo JPMorgan Chase, Verizon e Amazon, a qual instou seus engenheiros que usufruem de ferramentas de IA para programação a usar sua própria solução interna.
Vale pontuar que a Apple foi uma das primeiras empresas a ofertar tecnologias de inteligência artificial quando lançou a Siri, sua assistente virtual, em 2011. Mas a empresa ficou para trás da maioria das suas rivais em termos de tecnologias generativas — sobre as quais o CEO1Chief executive officer, ou diretor executivo. da Maçã, Tim Cook, já expressou preocupações.
De volta ao caso do ChatGPT, o timing do anúncio da medida é no mínimo intrigante, uma vez que foi lançado ontem o app oficial da ferramenta da OpenAI para iOS — apenas nos Estados Unidos, entretanto. Contudo, como notado pelo jornalista Mark Gurman (da Bloomberg), é possível essa restrição já esteja valendo há algum tempo dentro da gigante de Cupertino.
via The Verge
Notas de rodapé
- 1Chief executive officer, ou diretor executivo.