arrow_back

Como usar o BigQuery e o Cloud Logging para analisar o uso do BigQuery

Test and share your knowledge with our community!
done
Get access to over 700 hands-on labs, skill badges, and courses

Como usar o BigQuery e o Cloud Logging para analisar o uso do BigQuery

Lab 45 minutos universal_currency_alt 1 crédito show_chart Introdutório
Test and share your knowledge with our community!
done
Get access to over 700 hands-on labs, skill badges, and courses

GSP617

Laboratórios autoguiados do Google Cloud

Visão geral

O Cloud Logging atua como repositório central para registros de vários serviços do Google Cloud, como o BigQuery, e é ideal para armazenamento de registros de curto e médio prazo. Muitos setores exigem que os registros sejam retidos por longos períodos. Se você quiser manter registros e realizar análises históricas estendidas ou auditorias complexas, configure um coletor que exporte registros específicos para o BigQuery.

Neste laboratório, você vai conferir os registros do BigQuery que estão no Cloud Logging, configurar um coletor a fim de exportá-los para o BigQuery e usar SQL para analisá-los.

Configuração e requisitos

Antes de clicar no botão Start Lab

Leia estas instruções. Os laboratórios são cronometrados e não podem ser pausados. O timer é iniciado quando você clica em Começar o laboratório e mostra por quanto tempo os recursos do Google Cloud vão ficar disponíveis.

Este laboratório prático permite que você realize as atividades em um ambiente real de nuvem, não em uma simulação ou demonstração. Você vai receber novas credenciais temporárias para fazer login e acessar o Google Cloud durante o laboratório.

Confira os requisitos para concluir o laboratório:

  • Acesso a um navegador de Internet padrão (recomendamos o Chrome).
Observação: para executar este laboratório, use o modo de navegação anônima ou uma janela anônima do navegador. Isso evita conflitos entre sua conta pessoal e a conta de estudante, o que poderia causar cobranças extras na sua conta pessoal.
  • Tempo para concluir o laboratório---não se esqueça: depois de começar, não será possível pausar o laboratório.
Observação: não use seu projeto ou conta do Google Cloud neste laboratório para evitar cobranças extras na sua conta.

Como iniciar seu laboratório e fazer login no console do Google Cloud

  1. Clique no botão Começar o laboratório. Se for preciso pagar, você verá um pop-up para selecionar a forma de pagamento. No painel Detalhes do laboratório à esquerda, você verá o seguinte:

    • O botão Abrir Console do Cloud
    • Tempo restante
    • As credenciais temporárias que você vai usar neste laboratório
    • Outras informações se forem necessárias
  2. Clique em Abrir Console do Google. O laboratório ativa recursos e depois abre outra guia com a página Fazer login.

    Dica: coloque as guias em janelas separadas lado a lado.

    Observação: se aparecer a caixa de diálogo Escolher uma conta, clique em Usar outra conta.
  3. Caso seja preciso, copie o Nome de usuário no painel Detalhes do laboratório e cole esse nome na caixa de diálogo Fazer login. Clique em Avançar.

  4. Copie a Senha no painel Detalhes do laboratório e a cole na caixa de diálogo Olá. Clique em Avançar.

    Importante: você precisa usar as credenciais do painel à esquerda. Não use suas credenciais do Google Cloud Ensina. Observação: se você usar sua própria conta do Google Cloud neste laboratório, é possível que receba cobranças adicionais.
  5. Acesse as próximas páginas:

    • Aceite os Termos e Condições.
    • Não adicione opções de recuperação nem autenticação de dois fatores (porque essa é uma conta temporária).
    • Não se inscreva em testes gratuitos.

Depois de alguns instantes, o console do GCP vai ser aberto nesta guia.

Observação: para ver uma lista dos produtos e serviços do Google Cloud, clique no Menu de navegação no canto superior esquerdo. Ícone do menu de navegação

Ativar o Cloud Shell

O Cloud Shell é uma máquina virtual com várias ferramentas de desenvolvimento. Ele tem um diretório principal permanente de 5 GB e é executado no Google Cloud. O Cloud Shell oferece acesso de linha de comando aos recursos do Google Cloud.

  1. Clique em Ativar o Cloud Shell Ícone "Ativar o Cloud Shell" na parte de cima do console do Google Cloud.

Depois de se conectar, vai notar que sua conta já está autenticada, e que o projeto está configurado com seu PROJECT_ID. A saída contém uma linha que declara o projeto PROJECT_ID para esta sessão:

Your Cloud Platform project in this session is set to YOUR_PROJECT_ID

gcloud é a ferramenta de linha de comando do Google Cloud. Ela vem pré-instalada no Cloud Shell e aceita preenchimento com tabulação.

  1. (Opcional) É possível listar o nome da conta ativa usando este comando:
gcloud auth list
  1. Clique em Autorizar.

  2. A saída será parecida com esta:

Saída:

ACTIVE: * ACCOUNT: student-01-xxxxxxxxxxxx@qwiklabs.net To set the active account, run: $ gcloud config set account `ACCOUNT`
  1. (Opcional) É possível listar o ID do projeto usando este comando:
gcloud config list project

Saída:

[core] project = <project_ID>

Exemplo de saída:

[core] project = qwiklabs-gcp-44776a13dea667a6 Observação: para conferir a documentação completa da gcloud, acesse o guia com informações gerais sobre a gcloud CLI no Google Cloud.

Tarefa 1: abrir o BigQuery

Abrir o console do BigQuery

  1. No Console do Google Cloud, selecione o menu de navegação > BigQuery:

Você verá a caixa de mensagem Olá! Este é o BigQuery no Console do Cloud. Ela tem um link para o guia de início rápido e as notas de versão.

  1. Clique em OK.

O console do BigQuery vai abrir.

Tarefa 2: criar um conjunto de dados

  1. Na seção Explorador, clique nos três pontos ao lado do projeto que começa com qwiklabs-gcp-.

  2. Clique em Criar conjunto de dados.

  3. Defina o ID do conjunto de dados como bq_logs.

  4. Clique em CRIAR CONJUNTO DE DADOS.

Clique em Verificar meu progresso para conferir o objetivo. Crie um conjunto de dados

Tarefa 3: executar uma consulta

Primeiro execute uma consulta simples que gere um registro. Você vai usar esse registro mais tarde a fim de configurar a exportação de registros para o BigQuery.

  1. Copie e cole a consulta abaixo no Editor de consultas do BigQuery:
SELECT current_date
  1. Clique em EXECUTAR.

Tarefa 4: configurar a exportação de registros do Cloud Logging

  1. No console do Cloud, selecione Menu de navegação > Logging > Análise de registros.
Observação: se aparecer uma solicitação, clique em SAIR no trabalho não salvo.
  1. Em Recurso, selecione BigQuery e clique em Aplicar.

  2. Depois clique no botão Executar consulta no canto superior direito.

Devem ser exibidas algumas entradas de registro da consulta.

Procure aquela que contém a palavra "jobcompleted".

Registros do BigQuery

  1. Clique na seta à esquerda para expandir a entrada.

registro expandido e seta à esquerda de uma entrada em destaque

Depois clique no botão Expandir campos aninhados no lado direito.

A entrada de registro JSON completa será exibida. Role para baixo e confira os diferentes campos.

  1. Depois, role de volta até o cabeçalho da entrada, clique em jobcompleted e selecione Mostrar entradas correspondentes.

Registro &quot;jobcompleted&quot;

Isso configura a pesquisa com os termos corretos. Talvez seja necessário ativar o botão Mostrar consulta para vê-la.

Criador de consultas

Criar coletor

Agora que você tem os registros necessários, é hora de configurar um coletor.

  1. Clique em Criar coletor no menu suspenso Mais ações.

Opção &quot;Criar coletor&quot; destacada

  1. Preencha os campos da seguinte forma:
  • Nome do coletor: JobComplete e clique em PRÓXIMA.
  • Selecione o serviço do coletor: conjunto de dados do BigQuery
  • Selecione o conjunto de dados do BigQuery (destino): bq_logs (o conjunto de dados que você já configurou)
  • Mantenha o restante das opções nas configurações padrão.
  1. Clique em CRIAR COLETOR.

Todas as próximas entradas de registro do BigQuery serão exportadas para uma tabela no conjunto de dados bq_logs.

Clique em Verificar meu progresso para conferir o objetivo. Crie um coletor

Tarefa 5: executar consultas de exemplo

Para preencher a nova tabela com alguns registros, execute algumas consultas de exemplo.

  • Acesse o Cloud Shell e adicione cada um dos seguintes comandos do BigQuery:
bq query --location=us --use_legacy_sql=false --use_cache=false \ 'SELECT fullName, AVG(CL.numberOfYears) avgyears FROM `qwiklabs-resources.qlbqsamples.persons_living`, UNNEST(citiesLived) as CL GROUP BY fullname' bq query --location=us --use_legacy_sql=false --use_cache=false \ 'select month, avg(mean_temp) as avgtemp from `qwiklabs-resources.qlweather_geo.gsod` where station_number = 947680 and year = 2010 group by month order by month' bq query --location=us --use_legacy_sql=false --use_cache=false \ 'select CONCAT(departure_airport, "-", arrival_airport) as route, count(*) as numberflights from `bigquery-samples.airline_ontime_data.airline_id_codes` ac, `qwiklabs-resources.qlairline_ontime_data.flights` fl where ac.code = fl.airline_code and regexp_contains(ac.airline , r"Alaska") group by 1 order by 2 desc LIMIT 10'

Você vai receber os resultados de cada consulta retornada.

Clique em Verificar meu progresso para conferir o objetivo. Execute consultas de exemplo

Tarefa 6: exibir os registros no BigQuery

  1. Volte ao BigQuery (Menu de navegação > BigQuery).

  2. Expanda o recurso que começa com o nome qwiklabs-gcp- e expanda o conjunto de dados bq_logs.

O nome pode variar, mas deve ser exibida uma tabela "cloudaudit_googleapis_com_data_access".

Observação: talvez seja necessário executar novamente as consultas de exemplo para que a tabela apareça.
  1. Clique no nome da tabela. Ao inspecionar o esquema dela, é possível notar que ela conta com um grande número de campos.

Ao clicar em Prévia, é possível que os registros das últimas consultas executadas não sejam exibidos. Como esses registros são transmitidos para a tabela, é possível consultar os novos dados, mas eles ainda vão demorar algum tempo para aparecer na Prévia.

Se você quiser tornar a tabela mais utilizável, crie uma VISUALIZAÇÃO, que extrai um subconjunto de campos e realiza alguns cálculos a fim de derivar uma métrica para o tempo de consulta.

  1. Clique em Escrever nova consulta. No editor de consultas do BigQuery, execute o seguinte SQL depois de substituir pelo nome do seu projeto (para copiar o ID do projeto com facilidade, acesse o painel Detalhes do laboratório no lado esquerdo da página do laboratório):
CREATE OR REPLACE VIEW bq_logs.v_querylogs AS SELECT resource.labels.project_id, protopayload_auditlog.authenticationInfo.principalEmail, protopayload_auditlog.servicedata_v1_bigquery.jobCompletedEvent.job.jobConfiguration.query.query, protopayload_auditlog.servicedata_v1_bigquery.jobCompletedEvent.job.jobConfiguration.query.statementType, protopayload_auditlog.servicedata_v1_bigquery.jobCompletedEvent.job.jobStatus.error.message, protopayload_auditlog.servicedata_v1_bigquery.jobCompletedEvent.job.jobStatistics.startTime, protopayload_auditlog.servicedata_v1_bigquery.jobCompletedEvent.job.jobStatistics.endTime, TIMESTAMP_DIFF(protopayload_auditlog.servicedata_v1_bigquery.jobCompletedEvent.job.jobStatistics.endTime, protopayload_auditlog.servicedata_v1_bigquery.jobCompletedEvent.job.jobStatistics.startTime, MILLISECOND)/1000 AS run_seconds, protopayload_auditlog.servicedata_v1_bigquery.jobCompletedEvent.job.jobStatistics.totalProcessedBytes, protopayload_auditlog.servicedata_v1_bigquery.jobCompletedEvent.job.jobStatistics.totalSlotMs, ARRAY(SELECT as STRUCT datasetid, tableId FROM UNNEST(protopayload_auditlog.servicedata_v1_bigquery.jobCompletedEvent.job.jobStatistics.referencedTables)) as tables_ref, protopayload_auditlog.servicedata_v1_bigquery.jobCompletedEvent.job.jobStatistics.totalTablesProcessed, protopayload_auditlog.servicedata_v1_bigquery.jobCompletedEvent.job.jobStatistics.queryOutputRowCount, severity FROM `<YOUR-PROJECT-ID>.bq_logs.cloudaudit_googleapis_com_data_access_*` ORDER BY startTime

Clique em Verificar meu progresso para conferir o objetivo. Exiba os registros no BigQuery

  1. Agora é hora de consultar a VISUALIZAÇÃO. Crie uma nova consulta e execute o seguinte comando:
SELECT * FROM bq_logs.v_querylogs
  1. Percorra os resultados das consultas executadas.

Parabéns!

Você exportou os registros do BigQuery que estão no Cloud Logging para uma tabela do BigQuery e os analisou com SQL.

Próximas etapas/Saiba mais

Treinamento e certificação do Google Cloud

Esses treinamentos ajudam você a aproveitar as tecnologias do Google Cloud ao máximo. Nossas aulas incluem habilidades técnicas e práticas recomendadas para ajudar você a alcançar rapidamente o nível esperado e continuar sua jornada de aprendizado. Oferecemos treinamentos que vão do nível básico ao avançado, com opções de aulas virtuais, sob demanda e por meio de transmissões ao vivo para que você possa encaixá-las na correria do seu dia a dia. As certificações validam sua experiência e comprovam suas habilidades com as tecnologias do Google Cloud.

Manual atualizado em 5 de fevereiro de 2024

Laboratório testado em 27 de setembro de 2023

Copyright 2024 Google LLC. Todos os direitos reservados. Google e o logotipo do Google são marcas registradas da Google LLC. Todos os outros nomes de produtos e empresas podem ser marcas registradas das respectivas empresas a que estão associados.