Mô tả

A área de Processamento de Linguagem Natural - PLN (Natural Language Processing - NLP) é uma subárea da Inteligência Artificial que tem como objetivo tornar os computadores capazes de entender a linguagem humana, tanto escrita quanto falada. Alguns exemplo de aplicações práticas são: tradutores entre idiomas, tradução de texto para fala ou fala para texto, chatbots, sistemas automáticos de perguntas e respostas, sumarização de textos, geração automática de descrições para imagens, adição de legendas em vídeos, classificação de sentimentos em frases, dentre várias outras!

Dentro do contexto de Processamento de Linguagem Natural, a arquitetura BERT (Bidirectional Encoder Representations from Transformers) tem ganhado muita atenção dos desenvolvedores e atualmente é considerada como o modelo de Machine Learning mais eficiente nessa área! Muitos pesquisadores a consideram como um marco na área de PLN, mudando um pouco o paradigma de como as aplicações são implementadas.

Atualmente, o setor de Inteligência Artificial está cada vez mais necessitando de soluções de Processamento de Linguagem Natural, ou seja, aprender essa área juntamente com a arquitetura BERT pode ser a chave para trazer soluções reais para necessidades presentes e futuras. Baseado nisso, este curso foi projetado para quem deseja crescer ou iniciar uma nova carreira na área de Processamento de Linguagem Natural, obtendo uma sólida experiência nessa área utilizando modernas técnicas de Deep Learning e Redes Neurais Artificiais!

Aproveitaremos a enorme quantidade de dados de texto disponíveis on-line (duas bases de dados reais) e exploraremos duas das principais técnicas de PLN, o que lhe dará o poder necessário para enfrentar com êxito qualquer desafio do mundo real! Além de aprender a teoria, você também desenvolverá três estudos de caso:

  1. Criação de um classificador de sentimentos utilizando dados do Twitter e a integração de um tokenizador BERT com Redes Neurais Convolucionais

  2. O segundo estudo de caso é semelhante ao primeiro, porém, utilizaremos a camada de embedding do BERT para integração com uma Rede Neural Convolucional para classificar sentimentos

  3. Criação de um sistema de perguntas e respostas (Q&A - Questions and Answers) utilizando o BERT! A ideia é fazer uma pergunta sobre um determinado texto e o algoritmo vai indicar onde está a resposta para a nossa pergunta, muito similar com o que ocorre nos fóruns de pesquisa

Utilizaremos tecnologias modernas, como a linguagem Python, o TensorFlow 2.0 e o Google Colab, garantindo que você não tenha problemas com instalações ou configurações de softwares na sua máquina local.

Bạn sẽ học được gì

Crie um sistema de perguntas e respostas (Q&A) que pode ser utilizado em fóruns de pesquisas

Ligue o BERT à uma Rede Neural Convolucional especializada em Processamento de Linguagem Natural para classificação de sentimentos

Entenda a história do BERT e por que ele mudou a área de Processamento de Linguagem Natural (PLN)

Use as ferramentas de tokenização fornecidas com o BERT para pré-processar textos com eficiência

Use a camada BERT como incorporação para conectá-la ao seu próprio modelo de Processamento de Linguagem Natural (PLN)

Use o BERT como um modelo pré-treinado e depois ajuste-o para obter melhores resultados

Obtenha modelos disponíveis no Tensorflow Hub, a plataforma onde você pode obter modelos já treinados

Use o Google Colab e o Tensorflow 2.0 para suas implementações de IA

Yêu cầu

  • Lógica de programação, principalmente estruturas condicionais e de repetição
  • Básico da linguagem Python
  • Orientação a objetos
  • É desejável que você já tenha tido algum contato com a API Keras do TensorFlow

Nội dung khoá học

5 sections

Introdução

3 lectures
Boas-vindas e conteúdo do curso
09:14
Mais sobre Inteligência Artificial
00:09
Recursos para download
00:22

Teoria sobre o BERT

11 lectures
O que é BERT
07:01
Camada de embeddings
17:10
Ideia geral da arquitetura BERT
16:57
Redes neurais recorrentes para PLN
12:42
Arquitetura Transformer
12:58
Transformer: mecanismo de atenção 1
14:58
Transformer: mecanismo de atenção 2
19:14
Transformer: mais detalhes
10:50
Arquitetura BERT
17:23
Pré-treinamento BERT
11:23
Revisão da teoria
9 perguntas

BERT como tokenizador: classificação de sentimentos

10 lectures
Introdução a redes neurais convolucionais
11:11
Redes neurais convolucionais para texto
12:55
Importação das bibliotecas
08:39
Carregamento dos arquivos
07:24
Limpeza dos textos
08:42
Tokenização
10:01
Criação da base de dados
17:59
Criação do modelo
14:32
Treinamento do modelo
17:10
Avaliação do modelo
09:37

BERT como embedding: classificação de sentimentos

5 lectures
Pré-processamento da base de dados
04:46
Entradas para o BERT 1
15:04
Entradas para o BERT 2
12:10
Criação do modelo
06:13
Treinamento e avaliação do modelo
09:40

Aplicação de perguntas e respostas (Q&A) com BERT

16 lectures
Introdução e importação das bibliotecas
09:56
Pré-processamento da base de dados
11:22
Camada Squad
08:39
Modelo completo
07:09
Treinamento do modelo 1
11:34
Treinamento do modelo 2
11:31
Avaliação do modelo 1
07:34
Avaliação do modelo 2
19:04
Avaliação do modelo 3
09:55
Pré-processamento dos textos
07:30
Tokenização do contexto
09:44
Criação das entradas para o modelo
16:18
Previsões com textos 1
11:34
Previsões com textos 2
06:25
Material Complementar
00:14
AULA BÔNUS
02:55

Đánh giá của học viên

Chưa có đánh giá
Course Rating
5
0%
4
0%
3
0%
2
0%
1
0%

Bình luận khách hàng

Viết Bình Luận

Bạn đánh giá khoá học này thế nào?

image

Đăng ký get khoá học Udemy - Unica - Gitiho giá chỉ 50k!

Get khoá học giá rẻ ngay trước khi bị fix.