Link Learning Path AI 900
https://learn.microsoft.com/pt-br/training/browse/?terms=ai-900&subjects=data-aiSimulados
Link Simulado https://learn.microsoft.com/pt-br/certifications/exams/ai-900/practice/assessment?assessment-type=practice&assessmentId=26Laboratorios microsoft
link: https://microsoftlearning.github.io/AI-900-AIFundamentals/Laboratorios com serviços cognitivo com base no repositorio microsoft IA-900
link: https://github.com/MicrosoftLearning/AI-900-AIFundamentals ai-900ServerTexT
Link. https://profrodolfo.com.br/dp900/O que é IA? Em síntese, a IA é a criação de um software que imita comportamentos e capacidades humanos. As principais cargas de trabalho incluem:
Machine learning – geralmente é a base de um sistema de IA e é como "ensinamos" um modelo de computador a fazer previsões e tirar conclusões com base nos dados. Detecção de anomalias – a capacidade de detectar erros ou atividade incomum automaticamente em um sistema. Pesquisa Visual Computacional – a capacidade do software de interpretar o mundo visualmente por meio de câmeras, vídeos e imagens. Processamento de idioma natural – a capacidade de um computador de interpretar um idioma escrito ou falado e responder à mesma altura. Mineração de conhecimento: a capacidade de extrair informações de grandes volumes de dados muitas vezes não estruturados para criar um repositório de conhecimento pesquisável.
Então, como os computadores aprendem?
A resposta é: com base nos dados. No mundo atual, criamos enormes volumes de dados à medida que vivemos nossas rotinas. De mensagens de texto, emails e postagens em mídias sociais que enviamos a fotografias e vídeos que fazemos em nossos telefones, geramos enormes quantidades de informações. Mais dados ainda são criados por milhões de sensores em nossas residências, em nossos carros, em nossas cidades, em nossa infraestrutura de transporte pública e em nossas fábricas.
Os cientistas de dados podem usar todos esses dados para treinar modelos de machine learning que podem fazer previsões e inferências com base nas relações encontradas nos dados.
Por exemplo, suponha que uma organização de conservação ambiental queira que voluntários identifiquem e cataloguem diferentes espécies de flores silvestres usando um aplicativo de celular. A animação a seguir mostra como o machine learning pode ser usado para habilitar esse cenário.
Exemplo:
Na última unidade, abordamos as implicações sociais da IA e a responsabilidade de empresas, governos, ONGs e pesquisadores acadêmicos de prever e atenuar as consequências não intencionais da tecnologia de IA. Tendo em vista essa responsabilidade, as organizações têm a necessidade de criar políticas e práticas internas para orientar seus esforços de IA, estejam elas implantando soluções de IA de terceiros ou desenvolvendo suas próprias.
Na Microsoft, reconhecemos seis princípios que acreditamos que devem orientar o desenvolvimento e o uso da IA – imparcialidade, confiabilidade e segurança, privacidade e segurança, inclusão, transparência e responsabilidade. Para nós, esses princípios são a base de uma abordagem de uso de IA responsável e confiável, especialmente na medida que a tecnologia inteligente se torna cada vez mais predominante nos produtos e nos serviços que usamos todos os dias.
Seis Princípios que Orientam o Desenvolvimento e o Uso Responsável de IA pela Microsoft, representados por ícones: Imparcialidade (balança), Confiabilidade e segurança (uma mão com polegar para cima), Privacidade e segurança (um escudo com marca de aprovação), Inclusividade (duas pessoas separadas por um sinal de igual), Transparência (um aperto de mãos) e Responsabilidade (uma mão segurando uma pessoa).
Imparcialidade Os sistemas de IA devem tratar todos de forma justa e evitar tratar grupos de pessoas similarmente situadas de formas diferentes. Por exemplo, quando os sistemas de IA fornecem diretrizes sobre tratamento médico, solicitações de empréstimo ou emprego, eles devem fazer as mesmas recomendações para todos com sintomas, circunstâncias financeiras ou qualificações profissionais semelhantes.
Acreditamos que a mitigação de preconceitos começa com as pessoas entendendo as implicações e as limitações das previsões e das recomendações da IA. Em última análise, as pessoas devem complementar as decisões da IA com um julgamento humano bem fundamentado e ser responsabilizadas por decisões consequenciais que afetem outras pessoas.
Ao projetar e criar sistemas de IA, os desenvolvedores devem entender como os preconceitos podem ser introduzidos e como eles podem afetar as recomendações baseadas em IA. Para ajudar a atenuar os preconceitos, eles devem usar conjuntos de dados de treinamento que reflitam a diversidade da sociedade. Eles também devem criar modelos de IA de modo a permitir que eles aprendam e adaptem-se ao longo do tempo sem desenvolver preconceitos. Para ajudá-los a desenvolver sistemas de IA que tratam todos de forma justa, os desenvolvedores podem aproveitar ferramentas, metodologias, técnicas e outros recursos que ajudam a detectar e atenuar preconceitos.
Para conquistar a confiança, é fundamental que os sistemas de IA funcionem de maneira confiável, segura e consistente em circunstâncias normais e em condições inesperadas. Esses sistemas devem conseguir funcionar de acordo com o modo como foram originalmente projetados, responder com segurança a condições não previstas e resistir à manipulação prejudicial. Também é importante conseguir verificar se esses sistemas estão se comportando conforme esperado em condições operacionais reais. A maneira como eles se comportam e a variedade de condições com as quais eles podem lidar de maneira confiável e segura refletem, em grande parte, a variedade de situações e circunstâncias previstas pelos desenvolvedores durante o design e o teste.
Acreditamos que testes rigorosos sejam essenciais durante o desenvolvimento e a implantação do sistema para garantir que os sistemas de IA possam responder com segurança em situações não previstas e limítrofes, não apresentem falhas de desempenho inesperadas e não evoluam de maneiras que não sejam consistentes com as expectativas originais. Após o teste e a implantação, é igualmente importante que as organizações operem, mantenham e protejam seus sistemas de IA adequadamente ao longo do tempo de vida de seu uso. Se não forem mantidos adequadamente, os sistemas de IA poderão se tornar não confiáveis ou imprecisos, sendo, portanto, crucial levar em conta as operações e o monitoramento de longo prazo de cada implementação de IA. Em última análise, como a IA deve aumentar e ampliar as capacidades humanas, as pessoas precisam desempenhar um papel fundamental na tomada de decisões sobre como e quando um sistema de IA é implantado e se é adequado continuar usando-o ao longo do tempo. O julgamento humano será essencial para identificar possíveis pontos cegos e preconceitos nos sistemas de IA.
À medida que a IA se torna mais predominante, a proteção da privacidade e das informações pessoais e comerciais importantes se torna mais crítica e complexa. Com a IA, problemas de privacidade e segurança de dados exigem, principalmente, atenção especial, porque o acesso aos dados é essencial para os sistemas de IA fazer previsões e tomar decisões precisas e informadas sobre as pessoas. Os sistemas de IA precisam cumprir as leis de privacidade que exigem transparência sobre a coleta, o uso e o armazenamento de dados e exigir que os consumidores tenham controles adequados para escolher como seus dados são usados. Na Microsoft, continuamos pesquisando inovações em privacidade e segurança (veja a próxima unidade) e investimos em processos de conformidade robustos para garantir que os dados coletados e usados por nossos sistemas de IA sejam manipulados com responsabilidade.
Na Microsoft, acreditamos firmemente que todas as pessoas devem se beneficiar de tecnologias inteligentes, o que significa que elas precisam incorporar e abordar uma ampla gama de necessidades e experiências humanas. Para o 1 bilhão de pessoas com deficiências em todo o mundo, as tecnologias de IA podem ser um divisor de águas. A IA pode melhorar o acesso à educação, a serviços governamentais, a emprego, a informações e a uma ampla variedade de outras oportunidades. Soluções inteligentes, como transcrição de fala em texto em tempo real, serviços de reconhecimento visual e funcionalidade de texto preditivo, já estão capacitando pessoas com deficiências auditivas, visuais e outras.
As práticas de design inclusivo podem ajudar os desenvolvedores de sistemas a entender e resolver possíveis obstáculos em um ambiente de produto que possam, involuntariamente, excluir pessoas. Ao superar esses obstáculos, criamos oportunidades para inovar e criar melhores experiências que beneficiam todas as pessoas.
Princípios de design inclusivo da Microsoft, representados por ícones:
Como base dos valores anteriores estão dois princípios fundamentais que são essenciais para garantir a eficácia do restante: transparência e responsabilidade. Quando os sistemas de IA são usados para ajudar a informar decisões que causam um tremendo impacto na vida das pessoas, é fundamental que as pessoas entendam como essas decisões foram tomadas. Por exemplo, um banco pode usar um sistema de IA para decidir se uma pessoa pode receber crédito, ou uma empresa pode usar um sistema de IA para determinar os candidatos mais qualificados para contratação.
Uma parte crucial da transparência é o que chamamos de inteligibilidade ou a explicação útil do comportamento dos sistemas de IA e seus componentes. A melhoria da inteligibilidade exige que os stakeholders compreendam como e por que eles funcionam, de modo que possam identificar possíveis problemas de desempenho, preocupações de segurança e privacidade, preconceitos, práticas exclusivas ou resultados não intencionais. Também acreditamos que aqueles que usam os sistemas de IA devem ser honestos e comunicativos sobre quando, por que e como escolheram implantá-los.
As pessoas que criam e implantam sistemas de IA precisam ser responsáveis pela forma como seus sistemas operam. As organizações devem se basear nos padrões do setor para desenvolver normas de responsabilidade. Essas normas podem garantir que os sistemas de IA não sejam a autoridade final sobre qualquer decisão que afete as vidas das pessoas e que os humanos mantenham controle significativo sobre sistemas de IA que, de outro modo, seriam altamente autônomos.
As organizações também devem considerar o estabelecimento de um órgão de revisão interno dedicado. Esse órgão pode fornecer supervisão e diretrizes nos mais altos níveis da empresa sobre quais práticas devem ser adotadas para ajudar a resolver as preocupações abordadas acima e, particularmente, questões importantes sobre o desenvolvimento e a implantação de sistemas de IA. Eles também podem ajudar com tarefas, como a definição das melhores práticas para documentar e testar sistemas de IA durante o desenvolvimento ou o fornecimento de diretrizes quando um sistema de IA será usado em casos confidenciais (como aqueles que podem negar a pessoas serviços consequenciais, como serviços de saúde ou emprego, gerar o risco de danos físicos ou emocionais ou violar os direitos humanos).
Reconhecemos que cada indivíduo, empresa e região terá suas próprias crenças e seus próprios padrões que devem ser refletidos em sua jornada de IA. Compartilhamos com você nossa perspectiva enquanto você considera o desenvolvimento de seus próprios princípios orientadores.
A seguir, vamos ouvir Matt Fowler, Vice-Presidente e Chefe de Machine Learning, Dados Empresariais e Análise do TD Bank Group, que descreve como sua empresa está abordando o uso responsável da IA.