DynamoDB - backup de dados

Utilize a funcionalidade de importação / exportação do Data Pipeline para realizar backups. Como você executa um backup depende se você usa o console da GUI ou usa o Data Pipeline diretamente (API). Crie pipelines separados para cada tabela ao usar o console ou importe / exporte várias tabelas em um único pipeline se usar uma opção direta.

Exportando e importando dados

Você deve criar um bucket do Amazon S3 antes de realizar uma exportação. Você pode exportar de uma ou mais tabelas.

Execute o seguinte processo de quatro etapas para executar uma exportação -

Step 1 - Faça login no AWS Management Console e abra o console do Data Pipeline localizado em https://console.aws.amazon.com/datapipeline/

Step 2 - Se você não tiver pipelines na região AWS usada, selecione Get started now. Se você tiver um ou mais, selecioneCreate new pipeline.

Step 3- Na página de criação, insira um nome para seu pipeline. EscolherBuild using a templatepara o parâmetro Source. SelecioneExport DynamoDB table to S3da lista. Insira a tabela de origem noSource DynamoDB table name campo.

Insira o balde S3 de destino no Output S3 Foldercaixa de texto usando o seguinte formato: s3: // nameOfBucket / region / nameOfFolder. Insira um destino S3 para o arquivo de log emS3 location for logs caixa de texto.

Step 4 - Selecione Activate depois de inserir todas as configurações.

O pipeline pode levar vários minutos para concluir seu processo de criação. Use o console para monitorar seu status. Confirme o processamento bem-sucedido com o console S3 visualizando o arquivo exportado.

Importando Dados

Importações bem-sucedidas só podem acontecer se as seguintes condições forem verdadeiras: você criou uma tabela de destino, o destino e a origem usam nomes idênticos e o destino e a origem usam esquema de chave idêntico.

Você pode usar uma tabela de destino preenchida, no entanto, as importações substituem os itens de dados que compartilham uma chave com os itens de origem e também adicionam itens em excesso à tabela. O destino também pode usar uma região diferente.

Embora você possa exportar várias fontes, você só pode importar uma por operação. Você pode realizar uma importação seguindo as seguintes etapas -

Step 1 - Faça login no AWS Management Console e, em seguida, abra o console do Data Pipeline.

Step 2 - Se você pretende executar uma importação entre regiões, deve selecionar a região de destino.

Step 3 - Selecione Create new pipeline.

Step 4 - Insira o nome do pipeline no Namecampo. EscolherBuild using a template para o parâmetro Fonte e na lista de modelos, selecione Import DynamoDB backup data from S3.

Insira a localização do arquivo de origem no Input S3 Foldercaixa de texto. Insira o nome da tabela de destino noTarget DynamoDB table namecampo. Em seguida, insira a localização do arquivo de log noS3 location for logs caixa de texto.

Step 5 - Selecione Activate depois de inserir todas as configurações.

A importação começa imediatamente após a criação do pipeline. O pipeline pode demorar vários minutos para concluir o processo de criação.

Erros

Quando ocorrem erros, o console do Data Pipeline exibe ERROR como o status do pipeline. Clicar no pipeline com um erro leva você à página de detalhes, que revela todas as etapas do processo e o ponto em que a falha ocorreu. Os arquivos de log também fornecem algumas dicas.

Você pode revisar as causas comuns dos erros da seguinte maneira -

  • A tabela de destino para uma importação não existe ou não usa esquema de chave idêntico ao da origem.

  • O bucket S3 não existe ou você não tem permissões de leitura / gravação para ele.

  • O pipeline atingiu o tempo limite.

  • Você não tem as permissões de exportação / importação necessárias.

  • Sua conta AWS atingiu o limite de recursos.