Fatos principais
- Categoria
- Dados e tabelas
- Tipos de entrada
- textarea, file, text, select, checkbox
- Tipo de saída
- html
- Cobertura de amostras
- 4
- API disponível
- Yes
Visão geral
O Planejador de Migração CSV para Banco de Dados é uma ferramenta utilitária que analisa dados em formato CSV para inferir automaticamente um schema relacional e gerar scripts SQL. Com suporte nativo para PostgreSQL, MySQL, SQLite e SQL Server, ele identifica tipos de dados, sugere chaves primárias e estrangeiras, e cria comandos CREATE TABLE ou planos ALTER para facilitar a importação de dados e a evolução contínua do seu banco de dados.
Quando usar
- •Quando você precisa importar planilhas CSV para um banco de dados relacional e não quer escrever o comando CREATE TABLE e mapear os tipos de dados manualmente.
- •Ao atualizar uma tabela existente com novas colunas presentes em um arquivo CSV recente, gerando automaticamente os comandos ALTER necessários.
- •Para prototipar rapidamente a modelagem de dados a partir de exportações de sistemas legados, obtendo sugestões automáticas de índices e chaves.
Como funciona
- •Cole os dados CSV diretamente no campo de texto ou faça o upload de um arquivo contendo uma linha de cabeçalho.
- •Defina o nome da tabela, escolha o banco de dados de destino (PostgreSQL, MySQL, SQLite ou SQL Server) e, opcionalmente, forneça o schema atual.
- •A ferramenta analisa cada coluna para inferir tipos de dados (texto, inteiro, decimal, booleano, data), nulidade e candidatos a chaves primárias ou estrangeiras.
- •Copie o código SQL gerado, que incluirá a criação da tabela ou as instruções ALTER para adicionar colunas ausentes, aplicando quaisquer overrides JSON definidos.
Casos de uso
Exemplos
1. Criação de tabela para dados de clientes
Desenvolvedor Backend- Contexto
- A equipe de marketing exportou uma lista de clientes de um CRM antigo em formato CSV contendo IDs, e-mails e datas de cadastro.
- Problema
- É necessário criar a tabela no PostgreSQL com os tipos de dados corretos antes de importar os registros, sem escrever o DDL do zero.
- Como usar
- Faça o upload do arquivo CSV, defina o 'Nome da tabela' como 'clientes_crm' e selecione 'PostgreSQL' como banco de destino.
- Resultado
- A ferramenta gera um CREATE TABLE clientes_crm inferindo colunas como id (INTEGER PRIMARY KEY), email (VARCHAR), e data_cadastro (DATE).
2. Atualização de schema com novas colunas
Engenheiro de Dados- Contexto
- Um sistema parceiro começou a enviar um CSV de pedidos com duas colunas novas: taxa_entrega e status_pagamento.
- Problema
- Atualizar a tabela existente no MySQL para acomodar os novos campos sem recriar a tabela e perder os dados atuais.
- Como usar
- Cole o CSV atualizado, insira o DDL antigo no campo 'Schema existente', ative a opção 'Gerar plano ALTER' e defina o tipo exato da taxa no override.
- Configuração de exemplo
-
{"taxa_entrega":"DECIMAL(10,2)"} - Resultado
- O gerador compara o CSV com o schema existente e produz os comandos ALTER TABLE pedidos ADD COLUMN taxa_entrega DECIMAL(10,2) e ADD COLUMN status_pagamento VARCHAR(255).
Testar com amostras
json, csv, sqlHubs relacionados
FAQ
Quais bancos de dados são suportados pela ferramenta?
A ferramenta gera sintaxe DDL otimizada para PostgreSQL, MySQL, SQLite e SQL Server, adaptando os tipos de dados para o dialeto de cada sistema.
Como a ferramenta sugere chaves primárias e estrangeiras?
Ela analisa os nomes das colunas (como id, uuid, user_id) e a unicidade dos valores nas linhas do CSV para sugerir chaves primárias e dar pistas de chaves estrangeiras.
O que é o campo de Overrides de schema (JSON)?
É um campo opcional onde você pode forçar tipos de dados específicos ou sugerir índices manualmente, como definir uma coluna de preço estritamente como DECIMAL(14,4).
Como funciona a geração do plano ALTER?
Se você fornecer o comando CREATE TABLE atual no campo 'Schema existente', a ferramenta comparará a estrutura com o CSV e gerará comandos ALTER TABLE ADD apenas para as novas colunas encontradas.
Qual é o limite de tamanho para o arquivo CSV?
Você pode fazer upload de arquivos CSV de até 20 MB. Para conjuntos de dados maiores, recomendamos enviar uma amostra representativa com as primeiras milhares de linhas para inferir o schema corretamente.