TJ PA - Tribunal de Justiça do Estado do Pará - Analista Judiciário - Análise de Suporte (Pós-Edital)
Sobre o curso
Última atualização em 11/2025
Satisfação garantida ou seu dinheiro de volta!
Você poderá efetuar o cancelamento e obter 100% do dinheiro de volta em até 7 dias.
Aqui, no Gran, é satisfação garantida ou seu dinheiro de volta.
1.Curso baseado no Edital nº 01/2025.
2. Serão abordados os tópicos relevantes (não necessariamente todos) a critério do professor.
3. Carga horária prevista: 1.012 videoaulas, aproximadamente.
4. Material de apoio personalizado:
- audioaulas
- slides para acompanhamento das videoaulas.
5. Não serão ministrados: Infraestrutura em TI: 4.1 RDMA OVER converged ethernet (RoCE). Jumboframes. 7 Mecanismo NAT e PAT. 8 Spanning tree protocol (IEEE 802.1D). 11.2 Qualidade de serviço (QoS). 20.2.2 Active diretory. 20.2.3 Powershell. 22.4.1 Docker, Kubernetes, Rancher, conceitos de DevOps, ambiente de clusters. 23 Conceitos de alta disponibilidade e tolerância a falhas.24 Servidores de aplicação (Apache HTTP Server, IIS). 24.1 Administração e configuração. 24.1.1 Análise de desempenho da rede. 24.1.2 Gerenciamento de usuários. 24.1.3 Configuração, administração e logs de serviços. Banco de Dados: 4.3 Processamento de linguagem natural. 4.4 Big data. 4.5 Qualidade de Dados. 4.6 Tipos de Aprendizado. 4.6.1 Supervisionado, Não Supervisionado, Semi Supervisionado, Por Reforço, Por Transferência. 5 Grandes Modelos de Linguagem (LLM), IA Generativa.Tecnologias de GPU Aplicadas à Infraestrutura de Inteligência Artificial: 1 Fundamentos de GPU para Ambientes de Alto Desempenho. 1.1 Arquitetura de hardware NVIDIA (Ampere, Hopper, Ada etc.). 1.2 Aplicações práticas de GPUs em deep learning, visão computacional e ciência de dados. 1.3 Quantização de LLMs (AWQ, GGUF, etc.). 2 CUDA (Compute Unified Device Architecture) na Prática. 2.1 Execução de kernels CUDA e estrutura de execução (grids, blocks, threads). 2.2 Gerenciamento de drivers e runtime CUDA no ambiente Linux e Windows. 2.3 Compatibilidade de versões CUDA x drivers x frameworks (TensorFlow, PyTorch). 2.4 Boas práticas de instalação, atualização e manutenção do toolkit CUDA. 3 cuDNN (CUDA Deep Neural Network Library). 3.1 Instalação, configuração e troubleshooting da cuDNN. 3.2 Diagnóstico de problemas de compatibilidade com frameworks de IA. 4 Gerenciamento de GPU com NVIDIA SMI (System Management Interface). 4.1 Uso prático do nvidia-smi: monitoramento de temperatura, uso de memória, processos. 4.2 Identificação e controle de GPUs disponíveis no sistema. 5 Infraestrutura e Operação de Ambientes com GPU. 5.1 Dimensionamento de hardware para cargas de IA (memória, energia, refrigeração). 5.2 Instalação e manutenção de drivers NVIDIA em ambientes Linux/Windows. 5.3 Compatibilidade entre hardware, drivers e bibliotecas de IA. 5.4 Virtualização de GPU: NVIDIA vGPU e uso em containers (Docker com suporte a GPU). 5.5 Troubleshooting de falhas de inicialização e performance em ambientes com múltiplas GPUs. Arquitetura De Desenvolvimento Da Plataforma Digital Do Poder Judiciário Brasileiro (PDPJ-Br): Biblioteca Flyway. Evento negocial. APIs reversas. 8 Ambiente de clusters, kubernetes. 9 Ferramenta de orquestração de contêineres. Rancher.
6. Informamos que, visando à melhor compreensão e absorção dos conteúdos previstos no seu Edital, as videoaulas referentes a determinadas disciplinas foram organizadas com base na lógica didática proposta pelo(a) docente responsável e não de acordo com a ordem dos tópicos apresentada no conteúdo programático do certame.
1. Conteúdo produzido por docentes especializados e com amplos recursos didáticos.
2. Material prático que facilita a aprendizagem de maneira acelerada.
3. Exercícios comentados.
4. Não serão ministrados em PDF: ARQUITETURA DE DESENVOLVIMENTO DA PLATAFORMA DIGITAL DO PODER JUDICIÁRIO BRASILEIRO (PDPJ-Br): [...]. INFRAESTRUTURA EM TI: 3 RDMA OVER converged ethernet (RoCE), MTU, Jumboframes. 6.2 Segmentação e endereçamento. 6.3 CIDR. 6.4 IPSec, ARP, e TLS, NFS, SMB, LDAP. 6.5 Conceitos do multi protocol label switching (MPLS) e SD‐WAN. 7 Mecanismo NAT e PAT. 8 Spanning tree protocol (IEEE 802.1D). 9 Protocolos de roteamento. 9.1 OSPF, BGP, RIP, VRRP e HSRP. 10 Conceitos de VLAN (IEEE 802.1Q). 11 Tecnologia VOIP. 11.1 Protocolos H.323 e SIP. 11.2 Qualidade de serviço (QoS). 14 Ativos e perímetros de segurança de rede e aplicação. 16 Ferramentas de monitoramento e logging. 16.1 Nagios, Zabbix, Grafana, Elasticsearch, Kibana, Application Performance Monitoring (APM). 17.2 Microsoft Azure. 17.3.1 Administração. 17.5 Microsoft Exchange. 17.6 Microsoft Entra. 17.7 Micosoft Intune. 17.8 Intel vPro. 18 Armazenamento de dados em rede. 18.1 Network attached storage (NAS), direct attached storage (DAS), software defined storage (SDS), protocolo FCP, protocolos CIFS e NFS, conceitos de storage. 19.3.1 Veritas Netbackup, Robocopy, RSync, deduplicação. 20.1 (CentOS, Red Hat e Oracle Linux). 20.1.1 Instalação, configuração e administração. 20.1.4 Shellscript. 20.2 e Windows Server 2019). 20.2.1 Instalação, configuração e administração. 20.2.2 Active diretory. 20.2.3 Powershell. 21 Virtualização. 21.1 VMWare e Hyper‐V. 21.1.1 Fundamentos, configuração, administração e alta disponibilidade. 22 Virtualização de desktop. 22.1 Remote. 22.2 Desktop services. 22.3 Conceitos de máquinas virtuais. 22.4.1 Rancher, conceitos e ferramentas de orquestração de automação de infraestrutura (Ansible e Puppet), ambiente de clusters. 23 Conceitos de alta disponibilidade e tolerância a falhas. 23.1 Indicadores de disponibilidade. 23.1.1 MTBF, MTTR e MTTF. 23.1.2 Clusterização. 23.1.3 Balanceamento de carga. 23.1.4 Fail over. 24.1 Administração e configuração. 24.1.1 Análise de desempenho da rede. 24.1.2 Gerenciamento de usuários. 24.1.3 Configuração, administração e logs de serviços. BANCO DE DADOS: 3 Data Mesh, e ODI. 4.5 Qualidade de Dados. TECNOLOGIAS DE GPU APLICADAS À INFRAESTRUTURA DE INTELIGÊNCIA ARTIFICIAL: 1 Fundamentos de GPU para Ambientes de Alto Desempenho. 1.1 Arquitetura de hardware NVIDIA (Ampere, Hopper, Ada etc.). 1.2 Aplicações práticas de GPUs em deep learning, visão computacional e ciência de dados. 1.3 Quantização de LLMs (AWQ, GGUF, etc.). 2 CUDA (Compute Unified Device Architecture) na Prática. 2.1 Execução de kernels CUDA e estrutura de execução (grids, blocks, threads). 2.2 Gerenciamento de drivers e runtime CUDA no ambiente Linux e Windows. 2.3 Compatibilidade de versões CUDA x drivers x frameworks (TensorFlow, PyTorch). 2.4 Boas práticas de instalação, atualização e manutenção do toolkit CUDA. 3 cuDNN (CUDA Deep Neural Network Library). 3.1 Instalação, configuração e troubleshooting da cuDNN. 3.2 Diagnóstico de problemas de compatibilidade com frameworks de IA. 4 Gerenciamento de GPU com NVIDIA SMI (System Management Interface). 4.1 Uso prático do nvidia-smi: monitoramento de temperatura, uso de memória, processos. 4.2 Identificação e controle de GPUs disponíveis no sistema. 5 Infraestrutura e Operação de Ambientes com GPU. 5.1 Dimensionamento de hardware para cargas de IA (memória, energia, refrigeração). 5.2 Instalação e manutenção de drivers NVIDIA em ambientes Linux/Windows. 5.3 Compatibilidade entre hardware, drivers e bibliotecas de IA. 5.4 Virtualização de GPU: NVIDIA vGPU e uso em containers (Docker com suporte a GPU). 5.5 Troubleshooting de falhas de inicialização e performance em ambientes com múltiplas GPUs.
Sobre o concurso
Última atualização em 11/2025
Garantia de devolução do dinheiro em 7 dias.