A engenharia de telecomunicações no centro da política pública para 2026

Imagem gerada por IA

A engenharia de telecomunicações no centro da política pública para 2026
Infraestrutura digital, inclusão e soberania tecnológica como compromisso nacional

 

Quando se fala em engenharia, grande parte da sociedade ainda associa o termo quase exclusivamente à engenharia civil. Pontes, edifícios e rodovias são facilmente visualizados. Contudo, existe uma infraestrutura igualmente essencial, estratégica e estruturante, ainda que invisível aos olhos: a infraestrutura de telecomunicações. É ela que sustenta a conectividade, a economia digital, os serviços públicos digitais e a própria transformação tecnológica do país.
A meta anunciada pelo Ministério das Comunicações de conectar todas as escolas públicas brasileiras até 2026 revela a dimensão desse desafio. Conforme divulgado pelo Ministério das Comunicações em seu sítio eletrônico, durante o Seminário Políticas de Comunicações realizado na Universidade de Brasília, o secretário de Telecomunicações, Hermano Tercius, informou que 98 mil das 138 mil escolas públicas já estão conectadas, restando aproximadamente 40 mil unidades a serem integradas até o final de 2026.
Para o público leigo, conectar uma escola pode parecer apenas instalar internet. Na realidade, trata-se de um processo técnico complexo que envolve projeto de rede, dimensionamento de capacidade, estudo de link budget, ou balanço de potência, análise de tráfego, garantia de qualidade de serviço, controle de latência, segurança cibernética, redundância e sustentabilidade operacional. Em regiões remotas, a solução exige integração entre fibra óptica, enlaces de rádio digital de alta capacidade e sistemas satelitais. Cada escola conectada pressupõe planejamento de backbone, compatibilização com redes existentes e responsabilidade técnica claramente definida.
É nesse cenário que se evidencia o papel dos engenheiros eletricistas, engenheiros em eletrônica, engenheiros de telecomunicações e engenheiros de computação. O engenheiro atua no planejamento, no projeto e na sustentação da infraestrutura de telecomunicações, garantindo confiabilidade energética, desempenho de rede, integração entre sistemas, qualidade de transmissão, segurança da informação e estabilidade operacional. É esse trabalho técnico especializado que viabiliza, na prática, a conectividade e sustenta a transformação digital do país.
Também conforme divulgado pelo Ministério das Comunicações em seu sítio eletrônico, outra meta para 2026 é a apresentação do Plano Nacional de Inclusão Digital, que contemplará mapeamento e ações concretas para enfrentar a exclusão digital no país. A exclusão não se limita à ausência de sinal. Envolve desigualdade de acesso a dispositivos, déficit de letramento digital e limitações de capacitação técnica local. Superar esse cenário exige planejamento estruturado, integração entre políticas públicas e atuação regulatória consistente da Agência Nacional de Telecomunicações.
No mesmo contexto, o Ministério também destacou políticas nacionais voltadas à conectividade em rodovias, à expansão de cabos submarinos e ao fortalecimento de data centers no território nacional, conforme igualmente divulgado em seu sítio eletrônico. Esses eixos estruturam a base da soberania digital brasileira. Rodovias conectadas ampliam segurança e viabilizam sistemas inteligentes de transporte. Cabos submarinos fortalecem a inserção internacional do Brasil na economia digital. Data centers garantem processamento e armazenamento de dados com eficiência e segurança.
É fundamental que a sociedade compreenda que a infraestrutura digital é tão estruturante quanto a infraestrutura física. A engenharia civil constrói o que se vê. A engenharia de telecomunicações constrói o que conecta, transmite, processa e protege as informações que movimentam a economia, os serviços públicos e a própria dinâmica do país.
O horizonte de 2026 impõe responsabilidade técnica e institucional. Não basta cumprir metas quantitativas. É necessário assegurar qualidade, desempenho e sustentabilidade. A universalização da conectividade somente será efetiva se estiver fundamentada em projetos bem dimensionados, fiscalização adequada e valorização dos engenheiros que sustentam essa transformação.
Conectar escolas é preparar gerações. Estruturar redes é fortalecer soberania. Valorizar a engenharia de telecomunicações é reconhecer que o desenvolvimento contemporâneo depende não apenas do concreto que se ergue, mas também da energia, do espectro, dos circuitos, dos protocolos e dos sistemas que mantêm o Brasil conectado.
Autor
Engenheiro Eletricista Rogério Moreira Lima Silva
Diretor de Inovação e Diretor Estadual no Maranhão da ABTELECOM; Especialista da ABEE Nacional e 1º Secretário da ABEE-MA; Embaixador da ABRACOPEL e do Instituto EWRAN; Membro do SENGE-MA e do CEM; Titular da Cadeira nº 54 e Diretor de Relações Institucionais da Academia Maranhense de Ciências; Professor da Universidade Estadual do Maranhão.

,

Fake news tecnológica: não existe 5G sem antena

Fake news tecnológica: não existe 5G sem antena

Fake news tecnológica: não existe 5G sem antena

Conectividade direta via satélite não elimina antenas, apenas dispensa a ERB
Nos últimos dias, manchetes chamativas passaram a afirmar que seria possível oferecer 5G diretamente do espaço “sem antena”. A frase impressiona, mas do ponto de vista da ciência e da engenharia de telecomunicações, ela está errada e induz a uma compreensão equivocada sobre como a comunicação sem fio realmente funciona.
Para começar pelo ponto central, não existe comunicação sem fio sem antena. A antena é o componente físico que permite que a energia elétrica, que circula dentro dos equipamentos, seja transformada em ondas eletromagnéticas capazes de viajar pelo espaço. Sem esse processo, nenhum sinal sai do aparelho, seja em rádio, TV, Wi-Fi, 4G, 5G ou comunicações via satélite.
A base científica disso vem do eletromagnetismo. No século XIX, James Clerk Maxwell demonstrou que eletricidade e magnetismo não são fenômenos independentes. Ao introduzir o conceito de corrente de deslocamento, ele mostrou que um campo elétrico que varia no tempo também gera campo magnético, mesmo quando não há corrente elétrica fluindo de forma convencional. Esse ajuste foi essencial para manter a coerência física das leis do eletromagnetismo e explicar a existência das ondas eletromagnéticas.
Em termos simples, campos elétricos variáveis produzem campos magnéticos, e campos magnéticos variáveis produzem campos elétricos. Essa interação contínua e auto sustentada é o que permite que a energia eletromagnética se propague pelo espaço transportando informação.
Na prática, quando um condutor metálico é excitado por uma fonte de alta frequência, como ocorre em sistemas de telecomunicações, estabelece-se ao longo dele um campo elétrico que varia rapidamente no tempo. Essa variação gera um campo magnético associado. Quando as dimensões desse sistema são compatíveis com o comprimento de onda do sinal, parte da energia deixa de permanecer confinada ao condutor e passa a se espalhar pelo espaço livre. Esse espalhamento é o fenômeno da radiação eletromagnética.
É exatamente esse o papel da antena.
A antena é um sistema irradiante, projetado para converter energia elétrica guiada em energia eletromagnética propagante. Ela não é um acessório nem um detalhe secundário do sistema. É o elemento que torna a comunicação sem fio fisicamente possível.
Além disso, a teoria mostra que as ondas eletromagnéticas não se propagam de forma aleatória. As equações de Helmholtz, derivadas das equações de Maxwell, descrevem ondas com direção bem definida e com polarização específica. A onda possui orientação, sentido de propagação e estrutura bem estabelecida no espaço.
E é a antena que define essa polarização.
A posição física da antena determina se a polarização da onda será vertical, horizontal ou circular. Sua geometria e sua configuração influenciam diretamente o alcance do sinal, a direção preferencial de propagação e a forma como a energia se distribui no espaço, por meio de parâmetros como ganho, diretividade e diagrama de radiação.
Em termos simples, a antena não apenas permite que o sinal exista. Ela molda o próprio comportamento da onda eletromagnética transmitida.
Grande parte da confusão presente nas manchetes vem da mistura de dois conceitos diferentes: antena e Estação Rádio Base, a chamada ERB. A ERB é um conjunto completo de equipamentos que inclui rádios, sistemas de controle, energia, transmissão e, evidentemente, antenas. Quando se afirma que uma tecnologia dispensa ERBs, o que se está dizendo é que não será necessária a instalação de infraestrutura terrestre tradicional. Isso não significa, em hipótese alguma, que as antenas deixaram de existir.
Nos serviços tradicionais de internet via satélite, o usuário precisa instalar uma antena externa dedicada. Em propostas mais recentes de conectividade direta via satélite, essa antena externa deixa de ser necessária. No entanto, o telefone celular continua utilizando antenas internas integradas ao seu sistema de radiofrequência, enquanto os satélites empregam arranjos avançados de antenas para transmissão e recepção dos sinais.
Essas soluções fazem parte do conceito de redes não terrestres, previsto nos padrões definidos pelo 3GPP, que tratam da integração do 5G com plataformas orbitais. Nesse modelo, o satélite assume o papel de ponto de acesso da rede, enquanto o dispositivo do usuário continua operando como qualquer sistema de rádio, com antena, campos eletromagnéticos e propagação no espaço.
Portanto, a forma correta de explicar essa inovação não é afirmar que existe “5G sem antena”, mas sim que há 5G sem infraestrutura terrestre tradicional. A diferença é fundamental do ponto de vista técnico.
A tecnologia pode evoluir, as arquiteturas podem mudar e os sistemas podem se tornar cada vez mais sofisticados. O que não muda são as leis da física. Sempre que houver comunicação sem fio, haverá campos elétricos e magnéticos se propagando pelo espaço livre. E sempre que isso ocorrer, haverá um sistema irradiante responsável por essa radiação. Pode-se dispensar torres e estações rádio base no solo. Antenas, não. Onde há onda eletromagnética, há antena. Negar isso não é inovação. É desconhecer os fundamentos da engenharia.

Autor
Engenheiro Eletricista Rogerio Moreira Lima Silva
Diretor de Inovação e Diretor Estadual no Maranhão da ABTELECOM, Especialista da ABEE Nacional e 1º Secretário da ABEE-MA, Embaixador da ABRACOPEL e do Instituto EWRAN, membro do SENGE-MA e do CEM, Diretor de Relações Institucionais da Academia Maranhense de Ciências e professor da Universidade Estadual do Maranhão.

Telecomunicações e Engenharia na Era da Transformação Digital

telecomunicacoes e engenharia

A engenharia por trás da conectividade, da inovação e do desenvolvimento tecnológico

Ao mesmo tempo em que sustentam a transformação digital, a inovação e a integração da sociedade, as telecomunicações figuram entre os campos mais complexos da engenharia moderna. A afirmação de que “telecom é difícil”, longe de ser um exagero, reflete a elevada densidade técnica, matemática e regulatória que caracteriza a área. Afinal, como ocorre em todas as modalidades da engenharia, a Engenharia de Telecomunicações exige domínio aprofundado de matemática e física, que constituem a base para a compreensão e o projeto dos sistemas de comunicação. Compreender essa complexidade é fundamental para entender por que a Engenharia de Telecomunicações ocupa papel estratégico no avanço tecnológico do Brasil.

Do ponto de vista legal e conceitual, a própria definição de telecomunicações já evidencia essa abrangência técnica. Nos termos do art. 60 da Lei nº 9.472/1997, telecomunicação é a transmissão, emissão ou recepção, por fio, radioeletricidade, meios ópticos ou qualquer outro processo eletromagnético, de símbolos, caracteres, sinais, escritos, imagens, sons ou informações de qualquer natureza. Essa definição deixa claro que as telecomunicações envolvem, de forma indissociável, sistemas físicos, fenômenos eletromagnéticos, processamento de sinais e redes complexas de transmissão de informação.

Fica evidente, portanto, que as telecomunicações são, em sua essência, engenharia aplicada, muito antes mesmo de serem expressamente reconhecidas como atividade característica da engenharia pelo art. 1º, alínea “b”, da Lei nº 5.194/1966. Já em 18 de agosto de 1952, a Resolução CONFEA nº 78 atribuía as atividades de telecomunicações aos engenheiros eletricistas e mecânicos-eletricistas, demonstrando o pioneirismo do Sistema CONFEA na regulamentação técnica do setor. À época, o próprio Conselho já definia serviço de telecomunicações como qualquer emissão, transmissão ou recepção de sinais, imagens ou sons de qualquer natureza, utilizando princípios elétricos, sônicos, ópticos ou outros quaisquer, por meio de qualquer sistema ou meio de propagação. Esse histórico normativo evidencia que as telecomunicações sempre foram tratadas, desde sua origem regulatória, como um campo eminentemente técnico e científico, indissociável da engenharia, muito antes da edição da Lei Geral de Telecomunicações, em 1997.

Esse reconhecimento inicial não permaneceu estático. À medida que os sistemas de comunicação se tornaram mais complexos, incorporando técnicas avançadas de modulação, teoria da informação, processamento digital de sinais, redes e sistemas de rádio cada vez mais sofisticados, o campo das telecomunicações passou por um processo natural de especialização profissional. Esse movimento conduziu, primeiro, à consolidação do engenheiro de comunicação e, posteriormente, ao reconhecimento formal do engenheiro de telecomunicações como campo específico da engenharia, com formação própria, currículo dedicado e competências técnicas altamente especializadas.

A dificuldade da Engenharia de Telecomunicações não decorre apenas do volume de conteúdos ou do rigor acadêmico. Ela está profundamente associada à fragilidade da formação matemática básica com a qual muitos estudantes chegam ao ensino superior. O curso pressupõe domínio consistente, ainda no ensino médio, de funções, trigonometria, geometria analítica, vetores e fundamentos da física clássica, conteúdos que não são retomados de forma introdutória, mas imediatamente aprofundados e utilizados como linguagem básica para disciplinas centrais da formação.

Esse diagnóstico é empírico. O Brasil ocupou a 65ª posição em Matemática no PISA 2023, entre 81 países avaliados, evidenciando um descaso histórico com o ensino de base e com a formação científica. Esse resultado ajuda a explicar por que áreas intensivas em matemática, física e raciocínio abstrato, como a Engenharia de Telecomunicações, são frequentemente percebidas como excessivamente difíceis. Em contrapartida, países que valorizam a engenharia, a ciência e a pesquisa estruturam seu desenvolvimento sobre projetos tecnicamente sólidos, planejamento eficiente e execução responsável.

A partir dessa base fragilizada, o estudante passa a lidar com matemática de nível superior, como cálculo diferencial e integral, álgebra linear, equações diferenciais, análise complexa, séries e transformadas de Fourier, além de processos estocásticos. Quando essa base não está devidamente consolidada, a dificuldade enfrentada não é circunstancial ou pontual, mas estrutural, comprometendo de forma contínua o acompanhamento e a assimilação dos conteúdos próprios da Engenharia de Telecomunicações.

Na Engenharia de Telecomunicações, esses instrumentos matemáticos constituem o núcleo da formação técnica. A análise espectral de sinais exige domínio da transformada de Fourier, essencial para a caracterização da densidade espectral de potência, da largura de banda ocupada, da eficiência espectral e do impacto do ruído e das interferências sobre o desempenho dos sistemas de comunicação.

Essa base matemática se materializa diretamente em tecnologias amplamente utilizadas. Um exemplo emblemático é o OFDM, técnica central em sistemas como LTE, 5G e Wi-Fi. O OFDM é, essencialmente, uma aplicação direta da transformada discreta de Fourier, implementada por meio de algoritmos de FFT e IFFT, permitindo a decomposição do sinal em múltiplas subportadoras ortogonais, com elevada eficiência espectral e maior robustez frente aos efeitos do multipercurso.

Outro eixo estruturante da formação é o estudo da propagação de ondas eletromagnéticas. Em sistemas sem fio, a propagação ocorre no espaço livre ou em meios atmosféricos, envolvendo fenômenos como atenuação, reflexão, refração, difração, espalhamento, multipercurso e interferência. O projeto de enlaces e redes móveis baseia-se em modelos consolidados internacionalmente, estabelecidos em recomendações da ITU-R, como as Recomendações P.525, P.526 e P.1411, amplamente utilizadas no planejamento de cobertura e no controle de interferências.

Nos meios guiados metálicos, como pares trançados, cabos coaxiais e guias de onda, a propagação também é eletromagnética, sendo descrita pelas equações de Maxwell e pela teoria de linhas de transmissão, que modela a distribuição espacial dos campos, a impedância característica e os fenômenos de atenuação e reflexão. A fibra óptica, por sua vez, constitui um guia de onda dielétrico, no qual a propagação ocorre na faixa óptica do espectro por reflexão total interna, exigindo igualmente a modelagem a partir das equações de Maxwell, com a aplicação rigorosa das condições de contorno eletromagnéticas na interface entre núcleo e casca.

A coexistência de múltiplos modos de propagação pode dar origem à dispersão intermodal, que, somada à dispersão cromática, impõe limites físicos à taxa de símbolos e ao alcance dos sistemas de comunicação óptica, influenciando diretamente o projeto de enlaces, a escolha do tipo de fibra e as margens de desempenho dos sistemas.

No campo das redes ópticas de acesso, esses fenômenos físicos são tratados de forma normatizada pelas recomendações da ITU-T. A Recomendação ITU-T G.984, que define o padrão GPON, estabelece parâmetros físicos, ópticos e de transmissão para redes FTTH, garantindo interoperabilidade entre fabricantes, compartilhamento eficiente da infraestrutura e altas taxas de transmissão.

Nas comunicações sem fio, o planejamento de redes móveis envolve ainda medições em campo por meio de drive tests, etapa essencial para validar modelos teóricos, ajustar parâmetros de rede e garantir qualidade de serviço. O canal rádio móvel é modelado como um processo estocástico estacionário no sentido amplo, com espalhadores descorrelacionados, no qual a resposta impulsiva apresenta variações estatísticas no tempo e na frequência em decorrência do multipercurso e da mobilidade. Essa dispersão temporal e espectral constitui a origem física da interferência intersimbólica, impondo limites práticos à taxa de símbolos e, consequentemente, à taxa de transmissão, analisados à luz do critério de Nyquist e da teoria da capacidade de canal.

Importa destacar que as telecomunicações envolvem riscos relevantes para trabalhadores e para a população em geral. A atuação em infraestruturas compartilhadas com o Sistema Elétrico de Potência expõe profissionais a riscos elétricos tratados pela NR-10, os trabalhos em altura enquadram-se na NR-35 e a exposição à radiação não ionizante é tratada pela NR-15, Anexo 7, reforçando a necessidade de responsabilidade técnica e de Anotação de Responsabilidade Técnica.

Merece destaque especial a revisão da NR-10, que solucionou um impasse histórico envolvendo os trabalhadores de telecomunicações que atuam em infraestruturas compartilhadas com o Sistema Elétrico de Potência. A norma passou a reconhecer formalmente que as atividades de telecomunicações expõem os profissionais a riscos elétricos por proximidade, especialmente em postes e estruturas compartilhadas, sem equipará-los às atividades típicas de eletricistas de linha viva. Para esse cenário específico, a nova NR-10 instituiu o Treinamento de Segurança Específico para Compartilhamento de Infraestrutura do Sistema Elétrico de Potência, com carga horária mínima de 40 horas, direcionado às particularidades das telecomunicações. Esse avanço normativo amplia a segurança jurídica, assegura qualificação adequada e reforça a necessidade de planejamento técnico, supervisão por engenheiro legalmente habilitado e formalização da responsabilidade técnica por meio da Anotação de Responsabilidade Técnica nos serviços de telecomunicações realizados em ambientes com risco elétrico.

No plano dos serviços prestados à sociedade, a Engenharia de Telecomunicações se materializa na oferta de banda larga, telefonia móvel e TV por assinatura, serviços essenciais à transformação digital, à inovação, à economia baseada em dados e à inclusão social.

Em suma, não existe transformação digital sem telecomunicações, nem avanço tecnológico sem engenharia. A complexidade técnica da Engenharia de Telecomunicações não constitui um entrave, mas a base que sustenta a conectividade, a inovação e o desenvolvimento tecnológico do Brasil.

Autor
Engenheiro Eletricista Rogerio Moreira Lima Silva
Diretor de Inovação e Diretor Estadual no Maranhão da ABTELECOM, Especialista da ABEE Nacional e 1º Secretário da ABEE-MA, Embaixador da ABRACOPEL, membro do SENGE-MA e do CEM, Diretor de Relações Institucionais da Academia Maranhense de Ciências e professor da Universidade Estadual do Maranhão.

5G em São Luís: infraestrutura avançada, desafios reais

Como densidade de antenas, qualidade do sinal e otimização da rede explicam a experiência do usuário

São Luís já conta com uma infraestrutura 5G numericamente robusta, com centenas de células em operação e metas regulatórias formalmente atendidas. Ainda assim, reclamações sobre variações de desempenho fazem parte do cotidiano de muitos usuários. Essa aparente contradição ajuda a entender por que o 5G, apesar de tecnologicamente avançado, não pode ser avaliado apenas pelo número de antenas ou pela existência de cobertura nominal. A experiência real do usuário depende de uma combinação de fatores, entre eles a densidade celular, a qualidade efetiva do sinal e o processo contínuo de otimização das redes.

A densidade de antenas 5G é um dos principais indicadores do estágio de implantação da nova geração de redes móveis. Mais do que sinalizar a simples presença da tecnologia, esse parâmetro revela a densidade de células ativas, elemento fundamental para garantir capacidade, estabilidade e qualidade de serviço. No Maranhão, e especialmente em São Luís, essa análise ganha relevância quando observada à luz dos compromissos assumidos pelas operadoras no leilão de radiofrequências conduzido pela Agência Nacional de Telecomunicações, que estabeleceu metas mínimas de cobertura proporcionais ao tamanho da população dos municípios.

Dados do Painel Mapa das Antenas, disponível no sítio eletrônico da Conexis Brasil Digital, indicam que São Luís possui atualmente 477 células 5G em operação, distribuídas em estações rádio base. Desse total, a Vivo opera 161 células, a Claro 156, a TIM 154, enquanto a Brisanet mantém 6 células 5G na capital. Segundo o Instituto Brasileiro de Geografia e Estatística, a população estimada de São Luís em 2025 era de 1.089.215 habitantes, dado essencial para avaliar o atendimento às metas regulatórias.

Pelas regras do leilão, até 31 de julho de 2026, municípios com população superior a 200 mil habitantes devem contar, para cada prestadora, com pelo menos uma célula 5G a cada 15 mil habitantes. No caso de São Luís, isso corresponde a um mínimo de 73 células 5G por operadora. A comparação com a infraestrutura atualmente instalada indica que Vivo, Claro e TIM superam com ampla margem esse patamar mínimo, operando com densidade de células superior ao dobro do exigido. A Brisanet, por sua vez, apresenta uma implantação inicial, compatível com seu perfil de operadora regional.

Os dados de cobertura divulgados pela ANATEL reforçam essa leitura. Em São Luís, 98,24% da população encontra-se em área de cobertura móvel, percentual que alcança 98,71% da população urbana. Nas áreas classificadas como rurais, a cobertura atinge 36,68%, refletindo tanto características geográficas quanto a lógica técnica de implantação das redes, que priorizam regiões com maior concentração populacional e maior demanda por tráfego de dados.

É importante registrar que, a partir de setembro de 2024, houve um ajuste metodológico relevante na forma de estimar a cobertura das tecnologias 4G e 5G, com a revisão dos limiares mínimos de potência recebida de −110 dBm para −90 dBm. Essa mudança reduziu as áreas classificadas como cobertas, mas elevou substancialmente o patamar mínimo de qualidade do sinal adotado nas predições, tornando os mapas de cobertura mais aderentes à experiência real do usuário. Trata-se de um aprimoramento inserido em um arcabouço regulatório voltado à avaliação conjunta da cobertura e da qualidade das redes de comunicações móveis, alinhado às melhores práticas internacionais.

Para o leitor não familiarizado com termos técnicos, vale esclarecer que o dBm expressa a potência do sinal recebido pelo aparelho. Quanto mais negativo o valor, mais fraco é o sinal. Um critério de −110 dBm admite sinais muito fracos, normalmente associados a baixa relação sinal-interferência e ruído, enquanto o critério de −90 dBm exige sinais mais fortes, compatíveis com valores mais elevados de SINR, condição essencial para maiores velocidades e menor taxa de erros.

Na prática, a adoção de limiares mais elevados reduz o raio efetivo de cobertura de cada célula. Isso resulta em menor área atendida por célula e exige, portanto, maior densificação da rede. Como consequência, essa densificação pode levar a uma elevação da interferência co-canal, a qual precisa ser controlada por meio de planejamento criterioso e de processos contínuos de otimização.

Outro aspecto técnico relevante diz respeito ao uso da faixa de 3,5 GHz, principal frequência do 5G no Brasil. Embora essa faixa permita maior capacidade e velocidades mais elevadas, apresenta características de propagação diferentes das frequências mais baixas utilizadas no 4G. Em termos práticos, sinais em 3,5 GHz sofrem maior atenuação, têm menor alcance e são mais sensíveis a obstáculos físicos, como paredes, edificações e vegetação. Como consequência, a cobertura de cada célula tende a ser menor, podendo surgir áreas de sombra em locais onde, com frequências mais baixas, anteriormente havia cobertura satisfatória. Esse efeito não representa uma regressão tecnológica, mas sim uma característica física da propagação em frequências mais altas, reforçando a necessidade de maior densificação da rede, planejamento cuidadoso e otimização contínua.

Para compreender por que o simples aumento de potência não resolve problemas de cobertura, é fundamental considerar que as redes de telefonia celular estão sujeitas a interferências inerentes ao próprio sistema. A interferência co-canal decorre da natureza autointerferente dos sistemas celulares, cuja arquitetura se baseia no reuso de frequências. Nessas condições, a qualidade da comunicação passa a depender fundamentalmente da relação sinal-interferência, e não apenas da potência transmitida. Aumentar indiscriminadamente a potência pode elevar simultaneamente o sinal desejado e o nível de interferência, degradando o desempenho global da rede.

A interferência de canal adjacente está associada a sinais transmitidos em frequências próximas à do canal desejado, geralmente relacionada a limitações de filtragem e ao chamado efeito perto-distante, no qual um transmissor próximo interfere na recepção de sinais mais fracos. Esse tipo de interferência é mitigado por meio de planejamento adequado da alocação de canais, separação espectral, controle de potência e uso de filtros eficientes.

Apesar dos avanços observados nos indicadores de densidade celular e cobertura, o 5G em São Luís ainda é alvo de reclamações por parte de usuários, sobretudo relacionadas à variação de desempenho em determinados locais e horários. Esse descompasso entre métricas globais e experiência individual é comum em fases iniciais de implantação de novas tecnologias.

Do ponto de vista da engenharia, a qualidade percebida pelo usuário está diretamente condicionada ao SINR, que depende da distribuição espacial das células, do carregamento da rede, da mobilidade, das características construtivas do ambiente urbano e da capacidade dos terminais. Em redes 5G, que operam com células menores e maior reutilização espectral, essas variáveis tornam-se ainda mais sensíveis.

É importante destacar que as comunicações móveis são projetadas com base em modelos semiempíricos e probabilísticos. Por essa razão, etapas como drive test e otimização contínua são essenciais. Essas atividades permitem medir SINR, potência recebida, interferência e tráfego real, fornecendo subsídios técnicos para ajustes finos da rede.

No caso de São Luís, esse desafio é ampliado pelo processo contínuo de verticalização urbana, que altera o ambiente de propagação e pode modificar o comportamento do SINR mesmo em áreas anteriormente bem atendidas. Isso reforça a necessidade permanente de planejamento, densificação celular e otimização.

Por fim, é importante destacar que esses desafios fazem parte do próprio processo de engenharia associado à implantação do 5G. Trata-se de uma tecnologia introduzida com padrões técnicos definidos e operacionalmente funcional, porém ainda em processo de amadurecimento tecnológico e operacional, com funcionalidades e otimizações sendo progressivamente incorporadas. Esse modelo de implantação é característico de tecnologias de nova geração e explica a necessidade de ajustes contínuos de rede, aprimoramentos de planejamento e expansão gradual da infraestrutura. Assim, as adaptações observadas não indicam falhas, mas refletem o processo natural de evolução e consolidação de uma tecnologia em desenvolvimento, à medida que ela se adapta às condições reais de uso, ao crescimento do tráfego e às particularidades do ambiente urbano.

 

 

Autor:
Engenheiro Eletricista Rogerio Moreira Lima Silva
Diretor de Inovação e Diretor Estadual no Maranhão da ABTELECOM, Especialista da ABEE Nacional e 1º Secretário da ABEE-MA, Embaixador da ABRACOPEL, membro do SENGE-MA e do CEM, Diretor de Relações Institucionais da Academia Maranhense de Ciências e professor da Universidade Estadual do Maranhão.

Antes da lei, a engenharia regulamentou as telecomunicações

abtelecom

abtelecom

Muito antes de o Brasil dispor de um marco legal específico para o setor de telecomunicações, a engenharia nacional já havia construído, com rigor técnico e visão prospectiva, os contornos conceituais dessa atividade estratégica. Ainda em 1952, o Conselho Federal de Engenharia e Agronomia editou a Resolução nº 78, estabelecendo uma definição de serviço de telecomunicações que, mesmo analisada à luz do atual estágio tecnológico, revela-se notavelmente avançada.

A Resolução CONFEA nº 78/1952 definiu como serviço de telecomunicação qualquer emissão, transmissão e recepção de sinais, imagens ou sons de qualquer natureza, utilizando princípios elétricos, sônicos, óticos ou outros quaisquer, por qualquer meio. Trata-se de uma formulação tecnicamente neutra, ampla e ancorada em fundamentos científicos, capaz de abranger não apenas as tecnologias existentes à época, mas também aquelas que viriam a se desenvolver décadas mais tarde. Esse dado histórico evidencia o elevado grau de maturidade conceitual da engenharia brasileira já no início da segunda metade do século XX.

Esse entendimento técnico não permaneceu restrito ao âmbito infralegal. Com a edição da Lei nº 5.194/1966, que regulamentou o exercício das profissões de engenheiro, arquiteto e engenheiro-agrônomo, as telecomunicações passaram a ser reconhecidas como atividade característica da engenharia. Ao definir como atribuições privativas dos engenheiros as atividades de estudo, projeto, execução, operação e manutenção de sistemas técnicos baseados em princípios científicos, a lei consolidou o enquadramento das telecomunicações no domínio do exercício profissional da engenharia, em especial da engenharia elétrica. Antes, portanto, de qualquer marco setorial específico, as telecomunicações já estavam juridicamente inseridas no campo das atividades técnicas da engenharia brasileira.

Em 1973, a Resolução CONFEA nº 78/1952 foi formalmente revogada pela Resolução CONFEA nº 218, que promoveu uma reorganização sistemática das atribuições profissionais das diversas modalidades da engenharia. Essa revogação não significou abandono do tema das telecomunicações, mas sim sua incorporação em um arranjo normativo mais estruturado. O artigo 9º da Resolução nº 218/1973 passou a tratar expressamente das atividades relacionadas às telecomunicações, reafirmando-as como campo típico da engenharia elétrica e preservando o vínculo técnico entre telecomunicações e os princípios físicos e eletromagnéticos que lhes dão sustentação. Houve, portanto, continuidade conceitual, e não ruptura normativa.

Esse processo de atualização acompanhou a própria evolução tecnológica do setor. Em 1993, a Resolução CONFEA nº 380 instituiu atribuições provisórias relacionadas às telecomunicações no âmbito da engenharia de computação. À época, tratava-se de uma resposta regulatória a um cenário de transição tecnológica, marcado pela crescente convergência entre computação, redes de dados e sistemas de telecomunicações. O caráter provisório dessas atribuições refletia, de forma adequada, um momento de consolidação ainda em curso, tanto do ponto de vista técnico quanto institucional.

Décadas mais tarde, esse amadurecimento se consolidou com a edição da Resolução CONFEA nº 1.156/2025, que promoveu uma profunda reorganização do arcabouço normativo profissional ao revogar expressamente diversos dispositivos e resoluções anteriores, entre eles os arts. 8º e 9º da Resolução nº 218/1973, a íntegra da Resolução nº 380/1993, além de outros atos editados ao longo das últimas décadas. Esse amplo movimento de revogação não representa negação do passado, mas revela dois aspectos centrais. De um lado, a consolidação, em um único normativo, das atribuições dos engenheiros da modalidade eletricista. De outro, a delimitação definitiva, e não mais provisória, das atribuições do engenheiro de computação, conferindo maior clareza conceitual, coerência normativa e segurança jurídica ao exercício profissional.

A principal inovação introduzida pela Resolução nº 1.156/2025 reside justamente nesse ponto de inflexão institucional. As atribuições dos engenheiros de computação deixam de ocupar um espaço transitório e passam a integrar, de forma estável e estruturada, o sistema de competências profissionais reconhecidas. Esse avanço reflete o reconhecimento de que a engenharia de computação atingiu plena maturidade técnica e científica, especialmente nas áreas associadas às infraestruturas digitais, às redes de telecomunicações, aos sistemas computacionais complexos e à convergência tecnológica que caracteriza as telecomunicações contemporâneas.

Esse reconhecimento assume especial relevância em um contexto no qual as telecomunicações modernas se apoiam fortemente em arquiteturas IP, virtualização, computação distribuída, software e redes inteligentes. Ao tornar definitivas as atribuições do engenheiro de computação e, simultaneamente, consolidar as atribuições da engenharia eletricista, a Resolução nº 1.156/2025 fortalece a segurança jurídica dos profissionais, das empresas e da Administração Pública, ao mesmo tempo em que harmoniza o exercício profissional com a realidade tecnológica atual.

Somente após esse longo percurso de consolidação técnica e profissional é que o Brasil instituiu, em 1997, um marco legal específico para o setor de telecomunicações. Quando isso ocorreu, o conceito técnico de telecomunicações já estava formulado, amadurecido e aplicado há décadas no âmbito da engenharia. A legislação setorial posterior não rompe com essa tradição, mas positivou em lei um entendimento previamente construído no campo técnico-profissional.

Assim, o pioneirismo do CONFEA na regulamentação das telecomunicações não se limita a um registro histórico. Ele demonstra que a engenharia nacional foi protagonista na definição dos fundamentos técnicos que até hoje estruturam o setor, acompanhando a evolução tecnológica com coerência conceitual, capacidade de adaptação normativa e compromisso permanente com a segurança técnica e jurídica da sociedade brasileira.

,

5G Standalone: entre o discurso da inovação e os desafios reais

5G

5G

O artigo publicado pela Revista Fórum em 16 de janeiro de 2026, sob o título “O fim do 4G? A tecnologia 5G Standalone prepara o mercado para serviços digitais de alta performance”, traz ao debate público um tema central para o futuro das telecomunicações. Ao tratar da consolidação do 5G Standalone, o texto cumpre um papel relevante de divulgação em um momento de transição estrutural das redes móveis, ainda que, como é natural nesse tipo de abordagem, simplifique aspectos que, do ponto de vista técnico, são decisivos.

Quando essa discussão é analisada sob a ótica da engenharia elétrica e das telecomunicações, torna-se evidente que o 5G não se sustenta apenas em novos equipamentos ou em promessas genéricas de maior velocidade. A sua implantação depende, essencialmente, de planejamento de rede, medições em campo, como os drive tests, e processos contínuos de otimização, sem os quais não há como assegurar desempenho, confiabilidade e qualidade de serviço em ambientes urbanos complexos e heterogêneos.

Sob o aspecto técnico, é inegável que o principal destaque do 5G Standalone reside na capacidade de operar como banda larga móvel de altíssima performance, com taxas da ordem de 1 Gbps e latências inferiores a 1 ms em cenários devidamente planejados. Não se trata apenas de um avanço incremental em relação ao 4G, mas de uma mudança qualitativa que viabiliza aplicações até então inviáveis em redes móveis convencionais.

Esse ponto pode ser compreendido por meio de um exemplo simples de gestão remota de veículos autônomos em tempo real. Considere o acionamento remoto do sistema de frenagem de um veículo em deslocamento a 72 km/h. Em uma rede 4G, cuja latência típica situa-se na ordem de 100 ms, o comando percorre a rede em tempo suficiente para que o veículo avance cerca de 2 m antes que a resposta efetiva ocorra. Em um cenário de 5G Standalone, com latência inferior a 1 ms, esse deslocamento residual se reduz para aproximadamente 2 cm. A diferença é expressiva e evidencia por que, em aplicações críticas, milissegundos não constituem um detalhe técnico, mas um requisito funcional diretamente associado à segurança e à confiabilidade do sistema.

É importante destacar, contudo, que latências ultrabaixas não são automáticas nem universais. Elas dependem de uma arquitetura ponta a ponta adequada, da proximidade do processamento, muitas vezes viabilizada por edge computing, além da correta configuração da rede de acesso e de transporte. Em cenários reais, ainda há variabilidade, o que reforça a necessidade de engenharia rigorosa e de otimização permanente.

Do ponto de vista do rádio, o 5G enfrenta desafios clássicos de propagação, agora potencializados pelo uso de frequências mais elevadas e por ambientes urbanos densos. Fenômenos como desvanecimento, sombreamento, multipercurso e interferência impactam diretamente a qualidade do enlace, sobretudo em cenários de alta mobilidade e elevada concentração de usuários. Esses efeitos ajudam a explicar a percepção de instabilidade relatada por parte dos usuários durante a fase inicial de implantação da rede. A resposta técnica a esses desafios está incorporada na própria arquitetura do 5G, por meio do uso de MIMO massivo e de técnicas avançadas de beamforming, que permitem direcionar a energia do sinal de forma dinâmica e adaptativa, concentrando potência onde o usuário se encontra e reduzindo interferências indesejadas.

Do ponto de vista técnico-normativo, o 5G foi concebido desde a sua origem para atender três classes centrais de serviço, definidas internacionalmente pela ITU (The International Telecommunication Union). O mMTC (massive Machine Type Communications) é voltado à comunicação massiva entre máquinas e dispositivos de Internet das Coisas. O eMBB (enhanced Mobile Broadband) consolida o 5G como banda larga móvel avançada, com elevadas taxas de transmissão de dados. Já o URLLC (Ultra-Reliable Low Latency Communications) é direcionado a aplicações de tempo real e missão crítica, que exigem latência ultrabaixa e altíssima confiabilidade.

Merece registro positivo a estratégia de escolha das faixas de frequência adotada para o 5G no Brasil, que revela equilíbrio técnico entre capacidade, cobertura e viabilidade de implantação. Em especial, a faixa de 3,5 GHz destaca-se como o verdadeiro pilar do 5G brasileiro, por situar-se no início da faixa de SHF (Super High Frequency), permitindo larguras de banda compatíveis com os requisitos do 5G sem abrir mão de um comportamento de propagação ainda adequado ao ambiente urbano.

É compreensível, portanto, que a implantação do 5G no Brasil venha acompanhada de reclamações por parte dos usuários. Esses problemas não decorrem de falhas conceituais da tecnologia, mas da convivência com redes legadas, da necessidade progressiva de densificação e da complexidade própria da engenharia de RF em frequências mais elevadas.

No 5G, especialmente nas faixas de 3,5 GHz e 26 GHz, por se situarem na faixa de SHF, a Estação Transmissora de Radiocomunicação assume caráter ainda mais estratégico. Nessas frequências, a área de cobertura por estação é naturalmente menor, o que impõe maior densidade de sites no ambiente urbano. Sem a implantação adequada dessas estações, não há como expandir cobertura, aumentar capacidade ou reduzir latência.

É justamente nesse ponto que se estabelece a relação direta entre as ETRs e as legislações municipais. Quando normas locais criam condicionantes excessivos ou burocracia desproporcional, a infraestrutura deixa de acompanhar as metas regulatórias e técnicas do 5G.

A ANATEL atuou de forma preventiva desde 2021, encaminhando Carta Aberta às Autoridades Municipais Brasileiras e disponibilizando Minuta de Projeto de Lei Municipal para orientar a instalação de infraestrutura de telecomunicações, evidenciando esforço técnico e institucional antecipado.

Do ponto de vista do planejamento, a relação entre CAP (Coverage Area Probability) e margem demonstra que não existe cobertura técnica absoluta. CAP é uma métrica estatística e não determinística, e a busca por CAP igual a 100% é fisicamente e matematicamente inviável, levando a custos excessivos e ineficiência de rede. O papel da engenharia é ajustar requisitos, e não prometer impossibilidades.

Em síntese, o 5G Standalone não representa o fim do 4G, mas a abertura de uma nova etapa das telecomunicações, mais complexa do ponto de vista técnico e mais dependente de coordenação institucional. As reclamações dos usuários refletem desafios reais de implantação, não a inviabilidade da tecnologia. Em aplicações críticas, milissegundos fazem diferença concreta, o que recoloca a engenharia, o planejamento e a segurança jurídica no centro do debate sobre o futuro das redes móveis no Brasil. Mas afinal, de quem é a responsabilidade pelas reclamações que chegam à ANATEL? Da Agência, que atuou de forma preventiva e com antecedência, orientando as prestadoras, a sociedade e as prefeituras, e que dispõe de corpo técnico especializado e engenharia altamente qualificada? Das prestadoras do Serviço Móvel Pessoal, que cumprem requisitos técnicos e regulatórios tanto da ANATEL quanto do Sistema CONFEA/CREA, assegurando a qualificação da empresa e de sua equipe de engenharia legalmente habilitada? Ou das próprias prefeituras, que estabelecem condicionantes à implantação da infraestrutura necessária ao 5G, muitas vezes sem dispor de estrutura técnica especializada em telecomunicações para avaliar adequadamente seus impactos e exigências? Ou, simplesmente, não há culpados, e parte das insatisfações decorre do fato de que o nível de exigência projetado por alguns usuários é tecnicamente inalcançável, uma vez que não existe, nem nunca existirá, uma rede móvel com CAP igual a 100%?

Autor
Eng. Eletric. Rogerio Moreira Lima
Diretor de Inovação e Diretor Estadual MA da ABTELECOM
Especialista da ABEE Nacional
Embaixador da ABRACOPEL
Titular da Cadeira nº 54 e Diretor de Relações Institucionais da Academia Maranhense de Ciências
1º Secretário da ABEE-MA
Membro do SENGE-MA e do CEM
Professor da UEMA

,

Anatel inicia Consulta Pública sobre requisitos de avaliação da conformidade para Data Centers que integram as redes de telecomunicações

A Agência Nacional de Telecomunicações (Anatel) disponibilizou a Consulta Pública nº 48/2025, relativa a Ato que estabelece os Requisitos Técnicos e o Procedimento Operacional para a Avaliação da Conformidade de Data Centers que integram as redes de telecomunicações (DCTC). A sociedade, empresas do setor e especialistas podem enviar contribuições, com a devida fundamentação, através do sistema Participa Anatel, pelo prazo de 70 dias.

A proposta busca garantir que a infraestrutura de armazenamento e processamento dos dados, que suportam o núcleo funcional das redes de telecomunicações de interesse coletivo das prestadoras brasileiras, possua níveis adequados de resiliência, segurança cibernética e eficiência energética, além de assegurar a implementação de melhores práticas ambientais e de sustentabilidade.

O conselheiro Alexandre Freire, representante do tema na Anatel, afirmou que “a proposta reforça o compromisso da Agência com a segurança, a eficiência e a sustentabilidade das infraestruturas digitais, essenciais para o desenvolvimento do Brasil. Por meio da Consulta Pública, o setor e toda a sociedade terão oportunidade de apresentar contribuições e fundamentar suas preocupações, de modo que tenhamos uma proposta ainda mais robusta ao fim do processo, garantindo a participação social.”

A medida regulamenta dispositivos introduzidos pela recente Resolução nº 780/2025, que incluiu os Data Centers no escopo de avaliação da conformidade da Agência. Ela define critérios mínimos para os Data Centers considerados essenciais para a continuidade dos serviços de telecomunicações. Entre os principais pontos, podemos destacar:

  • Resiliência e Continuidade: uso de arquiteturas de redundância (energia, climatização e conectividade), conferindo a proteção física da infraestrutura e a continuidade em caso de eventos ambientais.
  • Segurança Cibernética: adoção de políticas de análise de riscos baseadas em padrões internacionais (série ISO/IEC 27000) para proteger a confidencialidade e integridade dos serviços e dos dados dos usuários.
  • Sustentabilidade e Eficiência: medição de Eficiência Energética (PUE), Uso de Água (WUE) e Eficiência de Carbono (CUE), além da adoção de sistemas de gestão ambiental e de energia.
  • Compatibilidade eletromagnética: Requisitos específicos de EMC para DCTCs que utilizam Unidades de Processamento Gráfico (GPUs), essenciais para o processamento de Inteligência Artificial.

Para evitar a duplicidade de custos ao setor, a proposta prevê um modelo de equivalência, no qual operadores que já possuam certificações internacionais reconhecidas (como ISO 27001, ISO 14001, ISO 50001 e normas TIA-942) poderão solicitar a homologação dessas certificações diretamente à Anatel, simplificando o processo administrativo.

O Ato prevê um período de adaptação de um ano após a sua publicação para entrar em vigor, garantindo que o setor possa adequar seus processos de auditoria e de contratação de Organismos de Avaliação de Sistemas (OAS).

A iniciativa reforça o papel da Anatel em assegurar que a infraestrutura digital do país seja robusta e sustentável, acompanhando a evolução tecnológica e a crescente dependência da sociedade por serviços em nuvem e processamento de dados, sem onerar excessivamente o setor.

Fonte: ANATEL

,

Índia se prepara para o 6G

No final de dezembro de 2025, a Índia deu um passo decisivo rumo ao futuro das telecomunicações. O National Frequency Allocation Plan 2025 liberou a faixa de 6 GHz, expandindo a capacidade do 5G Advanced e preparando o país para o 6G, redes móveis mais rápidas, confiáveis e com menor latência. Essa medida mostra como decisões técnicas bem fundamentadas antecipam e moldam o futuro da comunicação global.

Curiosamente, três meses antes, em 26 de setembro de 2025, durante o INOVAtic, evento promovido pelo Tele.Síntese em Guarulhos (SP), o engenheiro eletricista Vinicius Caram, superintendente de Outorga e Recursos à Prestação da Anatel, já defendia a destinação de parte da frequência de 6 GHz para a telefonia móvel, em vez de cedê-la completamente ao uso do WiFi. Caram sustentou a opção de compartilhamento da faixa citando condições operacionais do espectro, a viabilidade da tecnologia 6G no Brasil e o fato de que os provedores, apesar de terem a frequência disponível, ainda não oferecem planos que a utilizem nas redes WiFi 6E e 7. “Quando a gente fala dessa frequência, a minha bandeira é 6 GHz para permitir o 6G, porque não temos espectro abaixo de 6 GHz com portadora de 200 MHz. Não tem. O Brasil não pode ficar sem 6G e não tenho outro espectro que não seja o de 6 GHz”, afirmou Caram.

Para quem não conhece, Vinicius Caram é Engenheiro Eletricista, Mestre em Engenharia de Telecomunicações e especialista em Gestão de Telecomunicações pela UnB, especialista em Governança e Controle da Regulação pela ENAP, e possui certificação em Liderança em IA pela Harvard Kennedy School. Atua na Anatel desde 2011, com experiência em regulamentação, infraestrutura e qualidade, e ocupou cargos estratégicos, como Vice-Presidente da Comissão de Licitação do 5G, Coordenador da Comissão Brasileira de Comunicações (CBC2), além de integrar grupos de trabalho relacionados à TV 3.0, uso do espectro com as Forças Armadas e Conselho Nacional de Combate à Pirataria.

Um detalhe interessante sobre o engenheiro eletricista Vinicius Caram é que sua dissertação de mestrado foi intitulada “Gerenciamento e Otimização do Espectro de Frequências para Rede Móvel com Múltiplas Tecnologias em mesma Banda”. Coincidentemente, hoje ele ocupa o cargo de Superintendente de Outorga e Recursos à Prestação da ANATEL, função que exige exatamente o conhecimento especializado que sua pesquisa abordou. Essa conexão entre formação acadêmica e atuação profissional reforça a profundidade técnica de Caram e a segurança de suas decisões na gestão do espectro de frequências, garantindo que políticas de alocação de bandas e implementação de redes móveis estejam baseadas em conhecimento técnico consolidado. Não é à toa que a decisão tomada recentemente pela Índia sobre a faixa de 6 GHz referenda o posicionamento do engenheiro Caram, mesmo considerando que cada país tem suas especificidades na gestão do espectro nacional.

Importante destacar que os engenheiros eletricistas são profissionais devidamente habilitados para planejamento, estudos, projetos, análises, avaliações, vistorias, perícias, pareceres e divulgação técnica; ensino, pesquisas, experimentação e ensaios; produção técnica especializada; fiscalização; direção e execução de obras e serviços técnicos referentes às telecomunicações, conforme arts. 1º ‘b’, 7º e 27 ‘f’ da Lei 5.194/1966 e art. 2º da Resolução CONFEA nº 1156/2025. Isso demonstra a importância de profissionais qualificados como o engenheiro Caram, pois ele fundamenta suas decisões em conhecimento técnico especializado, garantindo que políticas de espectro e implementação de redes móveis estejam baseadas em conhecimento especializado e padrões técnicos reconhecidos.

Para que o leitor entenda melhor a importância do espectro, podemos pensar em exemplos simples: 10% de 900 MHz é 90 MHz, 10% de 3,5 GHz é 350 MHz, 10% de 6 GHz é 600 MHz e 10% de 26,5 GHz é 2,65 GHz. Quanto maior a frequência, maior a largura de banda disponível, ou seja, mais informações podem ser transmitidas ao mesmo tempo.

Segundo a Lei de Shannon-Hartley, a capacidade de um canal depende da largura de banda e da relação sinal-ruído. A largura de banda tem efeito diretamente proporcional, enquanto a relação sinal-ruído age de forma logarítmica: aumentar um sinal fraco melhora muito a capacidade, mas aumentar um sinal já forte gera ganhos menores. Por isso, para melhorar a transmissão, ampliar a largura de banda é mais eficiente do que aumentar apenas a potência do sinal (Shannon, 1948). Hoje, técnicas avançadas de codificação e modulação de alta eficiência espectral permitem aumentar a taxa de dados sem ampliar a largura de banda ou a relação sinal-ruído, embora existam limites físicos.

Sinais em frequências mais altas enfrentam desafios de propagação, com maior dificuldade para contornar obstáculos, exigindo antenas e torres planejadas com precisão. Frequências próximas de 3 GHz ainda permitem cobertura maior e possibilitam ponto-a-área, razão pela qual o Brasil adotou 3,5 GHz para o 5G. Já a faixa de 6 GHz é essencial para 5G Advanced e 6G, oferecendo mais capacidade, suportando múltiplos usuários simultaneamente e permitindo serviços de altíssima velocidade, embora exija infraestrutura planejada com precisão.

O uso de tecnologias como Massive MIMO, beamforming, modulação adaptativa e codificação eficiente torna possível direcionar o sinal com precisão, reduzir interferências e atender múltiplos usuários simultaneamente. Esses sistemas envolvem álgebra linear aplicada a matrizes de sinais complexos, transformada de Fourier para análise espectral e processos estocásticos, que consideram ruído elétrico, multipercurso e variação do canal rádio móvel. Esse conhecimento permite criar redes escaláveis, confiáveis e de alta capacidade.

Essa complexidade evidencia que a engenharia vai muito além da construção civil. A engenharia de telecomunicações é o pilar da comunicação moderna, impactando serviços, indústria e o dia a dia das pessoas, além de abrir caminho para inovações tecnológicas globais.

Para que o Brasil aproveite plenamente essas oportunidades, é fundamental investir no ensino de matemática desde o ensino fundamental e médio, preparando futuros engenheiros, reduzindo evasão e diminuindo o tempo médio de formatura. O PISA 2022 apontou que 70% dos estudantes de 15 anos têm dificuldades com problemas matemáticos simples, e o PISA 2023 mostrou média de apenas 379 pontos em Matemática, bem abaixo da média OCDE de 472, evidenciando lacunas profundas no aprendizado desde cedo (BBC, 2022; BBC, 2023).

Referências:

Shannon, C. E. A Mathematical Theory of Communication. Bell System Technical Journal, v. 27, p. 379‑423, 623‑656, 1948.

BBC. Até alunos mais ricos no Brasil estão abaixo da média global em Matemática, aponta PISA. 2022. Disponível em: https://www.bbc.com/portuguese/articles/cv2zx819rg4o
. Acesso em: 01 jan. 2026.

BBC. Resultados do PISA 2023: Brasil obtém 379 pontos em Matemática. 2023. Disponível em: https://www.bbc.com/portuguese/articles/cv2zx819rg4o
. Acesso em: 01 jan. 2026.

FAPESP. Recent trends in engineering education in Brazil. 2022. Disponível em: https://revistapesquisa.fapesp.br/en/recent-trends-in-engineering-education/?utm_source=chatgpt.com
. Acesso em: 01 jan. 2026.

DEPARTMENT OF TELECOMMUNICATIONS. National Frequency Allocation Plan 2025. Nova Deli: Government of India, 30 dez. 2025. Disponível em: https://www.theweek.in/news/sci-tech/2025/12/30/india-gets-ready-for-6g-network-2026-nfap-2025-in-effect-on-dec-30.html
. Acesso em: 01 jan. 2026.

ECONOMIC TIMES. India earmarks upper 6GHz band for 5G & 6G mobile services in NFAP‑2025. Mumbai, 30 dez. 2025. Disponível em: https://telecom.economictimes.indiatimes.com/news/india-earmarks-upper-6ghz-band-for-5g-6g-mobile-services-in-nfap-2025/126250214
. Acesso em: 01 jan. 2026.

Tele.sintese. “Brasil não tem outro espectro para o 6G a não ser os 6 GHz”, diz Caram. Portal de Telecom, Internet e ITC. Disponível em: https://telesintese.com.br/brasil-nao-tem-outro-espectro-para-o-6g-a-nao-ser-os-6-ghz-diz-caram/
. Acesso em: 01 jan. 2026.

Anatel. Superintendência de Outorga e Recursos à Prestação – Vinicius Oliveira Caram Guimarães. Disponível em: https://www.gov.br/anatel/pt-br/composicao/superintendencias/superintendencia-de-outorga-e-recursos-a-prestacao/vinicius-oliveira-caram-guimaraes
. Acesso em: 01 jan. 2026.

CNPq. Vinícius Oliveira Caram Guimarães. Endereço para acessar este CV: http://lattes.cnpq.br/4898086289455446
. Acesso em: 01 jan. 2026.

Autor:
Eng. Eletric. Rogerio Moreira Lima
Diretor de Inovação e Estadual MA da ABTELECOM
Especialista da ABEE Nacional
Embaixador da ABRACOPEL
Diretor de Relações Institucionais da Academia Maranhense de Ciências
1° secretário da ABEE-MA
Membro do SENGE-MA e do CEM
Professor da UEMA

,

As telecomunicações rumo ao mundo quântico

Por Eng. Eletric. Rogerio Moreira Lima
Diretor de Inovação e Estadual MA da ABTELECOM
Especialista da ABEE Nacional
Embaixador da ABRACOPEL
Diretor de Relações Institucionais da Academia Maranhense de Ciências
Coordenador da CAPA e CEALOS do CREA-MA
1º Secretário da ABEE-MA
Professor do PECS/UEMA

A evolução das telecomunicações alcança um novo patamar com a emergência da comunicação quântica, que permite a transmissão de informações utilizando fenômenos quânticos como a superposição, o emaranhamento e a coerência quântica. Enquanto os sistemas convencionais de telecomunicações se baseiam na propagação de ondas eletromagnéticas, descritas pelas equações de Maxwell e pela equação de Helmholtz, fundamentos do eletromagnetismo, o mundo quântico abre possibilidades inéditas para a comunicação, a segurança da informação e o processamento de dados. Essa transição conceitual e tecnológica marca um dos movimentos mais profundos da história das telecomunicações desde a consolidação da eletrônica e da microeletrônica no século XX.

No Brasil, o Centro Brasileiro de Pesquisas Físicas (CBPF) se destaca com a criação de um laboratório de tecnologias quânticas, equipado com um refrigerador de diluição, que mantém dispositivos a temperaturas próximas do zero absoluto, e uma evaporadora, utilizada na fabricação de chips quânticos e dispositivos supercondutores. O laboratório também integra a Rede Rio de Comunicação Quântica e desenvolve sensoriamento quântico baseado em cristais de diamante, configurando-se como um espaço crucial para o avanço da comunicação quântica e das tecnologias associadas no país. Foram investidos 30 milhões de reais, por meio de recursos da Financiadora de Estudos e Projetos (Finep), do Instituto Nacional de Ciência e Tecnologia (INCT) via FAPERJ, do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) e da Petrobras.

Esse cenário reforça um ponto fundamental: não existe computação quântica nem comunicação quântica sem hardware, microeletrônica, engenharia eletrônica e sistemas de telecomunicações. A produção de chips quânticos, a operação segura de redes de telecomunicações e o desenvolvimento de comunicação quântica dependem integralmente do trabalho técnico especializado dos engenheiros eletricistas, engenheiros em eletrônica, engenheiros de telecomunicações e engenheiros de computação, que possuem responsabilidade legal e técnica pelo desempenho dessas tecnologias emergentes, conforme os arts. 1°, 7° e 27 “f” da Lei Federal nº 5.194/1966 e os arts. 3° e 4° da Resolução CONFEA 1156/2025.

Além do CBPF, outras instituições de pesquisa de destaque no Brasil incluem a Universidade Federal de Minas Gerais (UFMG), a Universidade de São Paulo (USP), a Universidade Estadual de Campinas (Unicamp) e a Universidade Federal de Pernambuco (UFPE), fortalecendo o ecossistema científico nacional voltado para a comunicação quântica. A integração dessas instituições contribui para a formação de profissionais altamente capacitados e para o desenvolvimento de tecnologias que posicionam o Brasil na vanguarda da inovação global.

Estudos recentes demonstram que a comunicação quântica pode coexistir com sinais convencionais de telecomunicações em fibras ópticas, mantendo fidelidade quântica mesmo na presença de tráfego clássico de alta potência. Experimentos conduzidos por Thomas et al. (2024) demonstraram teletransporte quântico em fibras ópticas de 30,2 km compartilhadas com sinais de 400 Gbps, utilizando técnicas de multiplexação de comprimento de onda, filtragem espectro-temporal e detecção por coincidência multiphotônica. Estes resultados confirmam a viabilidade de sistemas híbridos que operam simultaneamente com comunicação quântica e convencional, abrindo caminho para a expansão de redes quânticas em infraestrutura já existente.

A engenharia brasileira, portanto, deve se preparar para descer efetivamente ao nível quântico, assumindo papel central no desenvolvimento, implantação e manutenção dessas tecnologias emergentes. O CBPF, em conjunto com outras universidades e laboratórios, consolida a posição do Brasil como protagonista no cenário internacional da comunicação quântica, contribuindo para a soberania tecnológica, a segurança da informação e a inovação científica nacional.

 

 

Referências
SILVA, Rogerio Moreira Lima. Internet Quântica: o futuro da conectividade. ABTELECOM. Disponível em: https://abtelecom.org.br/site/internet-quantica-o-futuro-da-conectividade/. Acesso em: 28 dez. 2025.
SILVA, Rogerio Moreira Lima. A Engenharia Brasileira Desce ao Nível Quântico. ABTELECOM. Disponível em: https://abtelecom.org.br/site/a-engenharia-brasileira-desce-ao-nivel-quantico/. Acesso em: 28 dez. 2025.
GOVERNO DO BRASIL. 2025: O Ano da Quântica e o papel do CBPF no Brasil. Disponível em: https://www.gov.br/cbpf/pt-br/assuntos/noticias/2025-o-ano-da-quantica-e-o-papel-do-cbpf-no-brasil#:~:text=Laborat%C3%B3rio%20de%20Tecnologias%20Qu%C3%A2nticas%20do%20CBPF&text=Jo%C3%A3o%20Paulo%20Sinnecker%2C%20pesquisador%20do,pa%C3%ADs%20no%20cen%C3%A1rio%20tecnol%C3%B3gico%20mundial. Acesso em: 28 dez. 2025.
THOMAS, Jordan M.; YEH, Fei I.; CHEN, Jim Hao; MAMBRETTI, Joe J.; KOHLERT, Scott J.; KANTER, Gregory S.; KUMAR, Prem. Quantum teleportation coexisting with classical communications in optical fiber. Optica, v. 11, n. 12, p. 1700–1707, dez. 2024. DOI: 10.1364/OPTICA.540362.
BRASIL. RESOLUÇÃO Nº 1.156, DE 24 DE OUTUBRO DE 2025. Consolida normativos acerca das atividades e competências profissionais dos engenheiros eletricistas.
BRASIL. LEI Nº 5.194, DE 24 DE DEZEMBRO DE 1966. Regula o exercício das profissões de Engenheiro, Arquiteto e Engenheiro-Agrônomo, e dá outras providências.

,

Dezembro marca os 135 anos de Edwin Howard Armstrong, o engenheiro eletricista que revolucionou as telecomunicações

Dezembro marca os 135 anos do nascimento de Edwin Howard Armstrong, engenheiro eletricista cuja obra redefiniu de forma estrutural os fundamentos das telecomunicações modernas. Muito além de ser reconhecido como o inventor do rádio FM, Armstrong consolidou princípios físicos, matemáticos e arquiteturais que permanecem plenamente válidos mesmo na era digital. Sua contribuição ultrapassa a radiodifusão e alcança, de forma direta ou conceitual, praticamente todos os sistemas contemporâneos de transmissão de informação.
Nascido em Nova Iorque, em 1890, Armstrong formou-se em Engenharia Elétrica pela Universidade Columbia, instituição na qual também se tornou professor. Desde o início de sua trajetória acadêmica, destacou-se por aliar sólida formação teórica, domínio experimental e uma visão sistêmica incomum para sua época. Para Armstrong, o rádio não era um artefato empírico sujeito apenas a ajustes práticos, mas um sistema físico rigorosamente governado por leis matemáticas, especialmente no que se refere ao comportamento do ruído e ao uso eficiente do espectro eletromagnético.
Ainda no contexto de suas primeiras grandes contribuições, em 1918 Armstrong patenteou o circuito super-heteródino, arquitetura que se tornaria um divisor de águas na recepção de sinais. Contudo, já se sabia que o princípio havia sido concebido anteriormente por Lucien Lévy, fato que deu origem a uma longa e complexa disputa judicial. Ao final desse processo, Armstrong acabou por perder a paternidade formal da invenção. Ainda assim, sua contribuição técnica foi decisiva ao transformar o conceito em uma arquitetura funcional, robusta e amplamente aplicável, responsável por viabilizar sua adoção em escala global.
No ano seguinte, em 1919, ao retornar da França, onde havia atuado no serviço de telecomunicações do Exército dos Estados Unidos durante a Primeira Guerra Mundial, Armstrong envolveu-se em nova disputa judicial, desta vez com Lee De Forest, outro nome central na história do rádio. O litígio dizia respeito à prioridade da invenção do circuito de realimentação associado aos amplificadores regenerativos. Após doze anos de batalhas judiciais, a decisão final atribuiu a prioridade a De Forest, episódio que marcou profundamente a trajetória pessoal e profissional de Armstrong e evidenciou o ambiente jurídico hostil enfrentado pelos pioneiros da engenharia do rádio.
Essas controvérsias legais não se restringiram às primeiras décadas de sua carreira. Ao longo da década de 1930, a técnica de modulação em frequência desenvolvida por Armstrong tornou-se igualmente alvo de resistência institucional. À época, a modulação em amplitude dominava completamente o mercado, e as grandes empresas de comunicação haviam realizado investimentos expressivos em infraestrutura e equipamentos AM. A introdução do FM colocava esse parque tecnológico em risco de obsolescência, o que contribuiu para a desconfiança inicial e para a oposição sistemática à nova proposta.
Nesse contexto, a Federal Communications Commission (FCC), órgão responsável pela alocação do espectro nos Estados Unidos, decidiu atribuir à radiodifusão em FM a faixa atualmente em uso, entre 87,5 e 108 MHz. Armstrong, contudo, havia demonstrado tecnicamente a conveniência de uma distribuição alternativa de frequências, capaz de reduzir ruído e proporcionar áudio de alta fidelidade. Ainda assim, sua proposta não foi adotada na época, refletindo condicionantes econômicos e políticos do setor.
Entretanto, foi com a modulação em frequência que Armstrong produziu sua contribuição mais profunda e duradoura. Em um cenário dominado pela modulação em amplitude, altamente suscetível a interferências elétricas e ruídos atmosféricos, Armstrong demonstrou que a informação poderia ser transmitida por meio de variações da frequência instantânea da portadora, mantendo sua amplitude praticamente constante. Essa escolha conceitual simples e elegante alterou de forma definitiva a relação sinal-ruído dos sistemas de comunicação.
No FM, o sinal modulante não altera a amplitude da portadora, mas sim sua frequência instantânea. Isso significa que, no receptor, é necessário um processo de demodulação que extraia as variações de frequência e as converta novamente em sinais de informação. Inicialmente, o sinal recebido passa por uma etapa de limitação de amplitude, essencial para eliminar flutuações indesejadas introduzidas pelo canal de transmissão. Em seguida, o sinal é aplicado a um discriminador ou diferenciador de frequência, que realiza a conversão das variações instantâneas de frequência em variações de tensão proporcionais, recuperando assim o sinal original modulante.
Do ponto de vista espectral, esse processo produz consequências profundas sobre o comportamento do ruído. O ruído branco gaussiano presente na entrada do receptor possui densidade espectral de potência aproximadamente constante ao longo da frequência. Contudo, a operação de diferenciação inerente à demodulação em FM modifica esse cenário de forma significativa. Pela análise no domínio da frequência, obtida por meio da Transformada de Fourier, sabe-se que a derivada de um sinal no tempo corresponde à multiplicação de seu espectro por um fator proporcional à frequência. Como a densidade espectral de potência é proporcional ao módulo ao quadrado do espectro, o efeito da diferenciação faz com que a densidade espectral do ruído cresça quadraticamente com a frequência.
Como consequência direta, após o diferenciador, a maior parte da energia do ruído concentra-se nas componentes espectrais de alta frequência, enquanto a faixa de baixas frequências, onde se encontra o conteúdo informacional do sinal de áudio, permanece relativamente menos afetada. Esse deslocamento espectral permite que, após a demodulação, a aplicação de um simples filtro passa-baixas seja suficiente para atenuar significativamente o ruído residual, preservando o sinal útil. A combinação entre modulação angular, limitação de amplitude, diferenciação e filtragem constitui o fundamento físico e matemático da elevada imunidade ao ruído do FM e de sua reconhecida fidelidade sonora. Trata-se de um ganho estrutural da arquitetura do sistema, e não de uma melhoria incremental.
Durante a Segunda Guerra Mundial, Armstrong voltou a contribuir de forma decisiva para o avanço das telecomunicações, participando do aperfeiçoamento da modulação em frequência aplicada a enlaces de longa distância e a sistemas de radar de onda contínua, reforçando o caráter estratégico e militar de suas ideias.
Em 1953, apresentou sua última grande invenção, um sistema de multiplexação em modulação de frequência, conhecido como FM Multiplexing, que permitia a transmissão simultânea de mais de um programa no mesmo comprimento de onda, sem a necessidade de alterar a frequência da portadora. Esse princípio antecipou conceitos que se tornariam centrais nos sistemas modernos de transmissão multicanal.
Nos anos finais de sua vida, e pouco antes de expirarem os prazos legais de suas patentes, Armstrong foi pressionado a aceitar um acordo financeiro com a RCA para cobrir os elevados custos acumulados ao longo de décadas de disputas judiciais. Enfrentando grave desgaste emocional e financeiro, ele suicidou-se em 31 de janeiro de 1954, lançando-se do 13º andar de sua residência em Nova York. Na nota deixada para sua esposa, escreveu: “Que Deus o ajude e tenha piedade de minha alma”. Sua esposa, Marion, que havia sido secretária de David Sarnoff, então presidente da RCA, antes do casamento, retomou posteriormente a disputa judicial relacionada às patentes e, ao final da década de 1970, obteve decisões favoráveis que reconheceram a relevância e a originalidade das contribuições de Armstrong.
O legado de Armstrong, contudo, não se encerra no rádio analógico. Há uma linha conceitual clara que conecta a modulação em frequência aos sistemas digitais modernos. Os atributos buscados por Armstrong, eficiência espectral e robustez frente ao ruído, passaram a ser perseguidos, décadas depois, no domínio digital, à medida que a engenharia enfrentou novos desafios associados à crescente demanda por capacidade.
No contexto digital, técnicas de modulação como a Frequency Shift Keying (FSK) apresentam limitações importantes. Quando utilizada a modulação FSK simples gera um componente DC se a portadora central estiver exatamente em fc ± rb/2, o que pode introduzir interferências e degradação do sinal em receptores digitais. A modulação FSK também não possibilita alta eficiência espectral, propriedade essencial em um mundo que demanda cada vez mais por banda larga móvel, assim os problemas de componente contínua (DC) e baixa eficiência espectral são as razões pelas quais o FSK não é amplamente usado em sistemas digitais modernos de alta capacidade.
Para superar essas limitações, a engenharia digital recorreu à Modulação por Amplitude em Quadratura (QAM). O QAM herda o conceito fundamental de modulação angular explorado no FM e no FSK, mas em vez de variar a frequência da portadora, de maneira contínua ou discreta, codifica a informação em variações discretas de fase e amplitude simultâneas. Isso permite transmitir múltiplos bits por símbolo, aumentando a eficiência espectral e eliminando os problemas de componente DC associados à FSK. Além disso, o QAM oferece equilíbrio entre robustez frente ao ruído e eficiência espectral, características essenciais para transmissões de alta velocidade e sistemas de comunicação digital modernos.
Enquanto no FM a informação é transmitida pela variação contínua da frequência e na FSK por mudanças discretas da frequência, no QAM a informação é representada por pontos de constelação em um plano complexo, combinando amplitude e fase. Essa abordagem mantém o princípio de modulação angular, mas explora a fase da portadora em vez da frequência, permitindo esquemas de alta ordem, como QAM-64, QAM-256, QAM-512 ou constelações de ordem mais elevada, adequadas a canais digitais de alta capacidade.
A evolução mais recente dessa família de técnicas é o Mapeamento de Constelação Não Uniforme, NUC-QAM. Diferentemente da QAM uniforme, na qual os pontos da constelação são organizados de forma regular e equidistante, o NUC-QAM ajusta a posição desses pontos de maneira assimétrica, otimizando a constelação para condições específicas de canal e de relação sinal-ruído. O objetivo é aproximar a distribuição estatística do sinal transmitido da distribuição gaussiana teórica descrita por Shannon, maximizando a capacidade do canal.
O principal benefício do NUC-QAM é o ganho de modelagem, que permite reduzir a taxa de erro de bits para uma mesma potência média ou, alternativamente, aumentar a taxa de dados sem ampliar a largura de banda ocupada. Embora alguns símbolos estejam associados a níveis de energia mais baixos, o redesenho global da constelação equilibra distâncias, probabilidades e energia média, resultando em melhor desempenho global e maior eficiência espectral.
No Brasil, essas discussões assumem caráter estratégico no contexto do projeto da TV 3.0. A adoção de modulações avançadas baseadas em QAM de alta ordem e em constelações não uniformes permite ampliar a robustez da recepção, a eficiência espectral e a cobertura do serviço, ao mesmo tempo em que otimiza o uso de um espectro cada vez mais disputado. O planejamento regulatório do espectro depende diretamente desse tipo de escolha tecnológica, que exige sólido embasamento de engenharia.
É nesse cenário que a ABTELECOM, Associação Brasileira de Telecomunicações, exerce papel fundamental ao esclarecer engenheiros, pesquisadores, profissionais do setor e especialistas em regulação, inclusive por meio da valorização da história das telecomunicações. Sua atuação contribui para qualificar o debate técnico nacional, fortalecendo a conexão entre inovação tecnológica, planejamento regulatório e interesse público.
Celebrar os 135 anos de Edwin Howard Armstrong é, portanto, reconhecer o papel central do engenheiro na construção da infraestrutura invisível que sustenta a sociedade digital. Do diferenciador do FM às constelações não uniformes da QAM, os princípios formulados por Armstrong permanecem atuais, tecnicamente sólidos e indispensáveis para compreender os desafios presentes e futuros das telecomunicações.

 

Rogério Moreira Lima
Diretor de Inovação e Estadual MA da ABTELECOM
Especialista da ABEE Nacional
Embaixador da ABRACOPEL
Coordenador da CAPA e da CEALOS do CREA-MA
Diretor de Relações Institucionais da Academia Maranhense de Ciências
1° secretário da ABEE-MA
Membro do SENGE-MA e do CEM
Professor da UEMA

Referências
ARMSTRONG, Edwin Howard. A method of reducing disturbances in radio signaling by a system of frequency modulation. Proceedings of the Institute of Radio Engineers, New York, v. 24, n. 5, p. 689–740, 1936.
ARMSTRONG, Edwin Howard. Edwin Armstrong. Wikipédia, a enciclopédia livre. Disponível em: https://pt.wikipedia.org/wiki/Edwin_Armstrong. Acesso em: 21 dez. 2025.
CARLSON, A. Bruce; CRILLY, Paul B.; RUTLEDGE, Janet C. Communication systems: an introduction to signal and noise in electrical communication. 4. ed. New York: McGraw-Hill, 2002.
HAYKIN, Simon; MOHER, Michel. Introduction to analog & digital communication. 2. ed. Hoboken: John Wiley & Sons, Inc., 2007.
LESSING, Lawrence. Man of high fidelity: Edwin Howard Armstrong. New York: Bantam Books, 1969.
PROAKIS, John G.; SALEHI, Masoud. Digital communications. 5. ed. New York: McGraw-Hill, 2007.
SHANNON, Claude Elwood. A mathematical theory of communication. Bell System Technical Journal, New York, v. 27, p. 379–423, 623–656, 1948.