Nos módulos anteriores, transformamos seu computador em um cofre de dados e em um ouvido atento. Mas a realidade é que tarefas de IA pesadas — como transcrever 10 vídeos simultâneos ou rodar um modelo de 30GB de parâmetros — podem “engasgar” até o computador mais potente se você estiver tentando editar um vídeo em 4K ao mesmo tempo.
Este módulo ensina a Arquitetura de Distribuição. Vou te mostrar como usar o seu notebook antigo, o computador da recepção ou um servidor doméstico como “Workers” (trabalhadores) que executam as tarefas braçais enquanto você foca na estratégia na sua máquina principal (Master).
Por Que Multi-Hardware?
O maior gargalo da IA Local é o hardware. Modelos grandes exigem memória RAM e potência de GPU. Se você centraliza tudo numa única máquina, cria um ponto único de falha e de lentidão.
A arquitetura Master & Workers permite:
1. Produtividade Ininterrupta: O seu Mac Mini M4 fica livre para o DaVinci Resolve enquanto o seu MacBook Air transcreve os áudios no background.
2. Escalabilidade de Custo Zero: Você reaproveita hardware que já possui em vez de comprar uma máquina de R$ 50 mil.
3. Paralelismo Real: Você pode transcrever três reuniões diferentes ao mesmo tempo usando três máquinas simples na rede.
A Ferramenta de Conexão: Tailscale e SSH
Para que dois computadores trabalhem juntos como se fossem um só, eles precisam de um túnel de comunicação seguro e invisível. Usamos o Tailscale.
O Tailscale cria uma rede privada entre todos os seus dispositivos (Mac, iPhone, iPad, Windows) independentemente de onde eles estejam. O seu Mac Mini no escritório consegue “falar” com o seu MacBook Air na sua casa como se estivessem conectados pelo mesmo cabo.
Uma vez conectados, usamos o SSH (Secure Shell) para mandar comandos. O “Master” envia o arquivo de áudio para o “Worker”, dá a ordem de transcrever e recebe o texto de volta. Tudo automatizado via scripts.
O Fluxo Master & Worker na Prática
No dia a dia do estúdio, o fluxo funciona assim:
1. O Master (Mac Mini M4) detecta um novo vídeo na pasta do cliente.
2. O Master fatia o áudio em pequenos pedaços (chunking) para acelerar o processo.
3. O Master distribui esses pedaços para os Workers (MacBook Air, Mac Studio, etc.) via rede local.
4. Os Workers rodam o modelo local (Gemma 4 / Whisper) e devolvem os textos.
5. O Master costura os resultados e salva a tabela final no seu Segundo Cérebro.
Para você, o processo é invisível. Você solta o arquivo na pasta e, alguns minutos depois, a tabela aparece pronta.
Como Configurar sua Primeira Dupla
Não precisa ser um engenheiro de redes. O passo a passo é direto:
1. Instale o Tailscale em ambas as máquinas e logue com a mesma conta.
2. Ative o Remote Login (SSH) nos Ajustes do Sistema do Mac que será o Worker.
3. Instale o Ollama no Worker e baixe o modelo necessário.
4. Configure a Chave SSH: Siga o protocolo de “Confiança Mútua” (ssh-copy-id) para que o Master não peça senha toda vez que enviar um arquivo.
O Exercício Deste Módulo
Se você tem um segundo computador (ou pode pedir um emprestado para testar), instale o Tailscale em ambos. Tente fazer um “Login Remoto” via terminal do seu computador principal para o secundário usando o IP do Tailscale.
ssh seuusuario@ip-do-tailscale "echo Olá do Worker"
Se o “Olá” aparecer na sua tela, você acaba de conectar suas duas máquinas em rede. É a base do sistema distribuído.
Considerações Finais
A orquestração multi-hardware é o que permite processar tarefas pesadas de IA sem comprometer a máquina principal. Ter workers dedicados garante que o sistema roda em paralelo enquanto você edita, escreve e atende clientes.
No Módulo 11, vamos aprender a dar “leitura pesada” para esses workers. Vou te mostrar como fazer o seu sistema ler e memorizar milhares de documentos PDF, e-mails e anotações antigas de uma só vez, criando uma enciclopédia particular do seu conhecimento.
A gente se vê no Módulo 11.