Want to create interactive content? It’s easy in Genially!

Get started free

RETROFUTURE

Simão Alexandre Figueiredo Bordonhos

Created on November 26, 2024

Start designing with a free template

Discover more than 1500 professional designs like these:

Vaporwave presentation

Women's Presentation

Geniaflix Presentation

Shadow Presentation

Newspaper Presentation

Memories Presentation

Zen Presentation

Transcript

Rodrigo Rodrigues nº6Simão Bordonhos nº8 AC

Funcionamento interno dos microprocessadores

Começar

Índice

Principal função dos registos internos
Etapas de execução de um programa
Função da ALU e UC
Memória Cache (L1, L2 e L3)
Processadores de vários núcleos
Técnicas de processamento paralelo
Tipos de microprocessadores (CISC e RISC)
FBS (Front Side Bus)
Hypertransport (AMD)
Quickpath Interconnect (QPI-Intel)
Obrigado
Organização do sistema de E/S
LOREM IPSUM

Principal função dos registos internos

LOREM IPSUM

Armazenar dados te mporários:

Guardam operandos e resultados intermediários durante cálculos ou operações lógicas realizadas pela ALU.

Facilitar o acesso rápido:

Como estão dentro da CPU, permitem acesso imediato aos dados, evitando a latência da busca na memória principal.

Manter informações de controlo:

Registram endereços , ponteiros e contadores, como o contador de programa (PC) e o registrador de instruções (IR), que controlam o fluxo de execução do programa.

Gerenciar flags e estados do sistema:

Guardam sinais ou indicadores do estado de execução, como resultados de comparações ou condições (ex.: carry, zero, overflow).

Etapas de execução de umprograma

ALU (Arithmetic and Logic Unit - Unidade Lógica e Aritmética):

  • Realiza operações matemáticas (como adição, subtração, multiplicação) e lógicas (como AND, OR, NOT).
  • Manipula dados binários e compara valores para auxiliar na tomada de decisões (ex.: determinar se um número é maior ou menor).

UC (Unidade de Controle):

Coordena e controla todas as atividades da CPU.

Interpreta instruções do programa e gera sinais de controle para que a ALU, os registros, e os outros componentes executem as operações corretamente.

Gerencia o fluxo de dados entre a CPU, a memória e os dispositivos de entrada/saída.

Memória Cache (L1)

Localização: Está integrada diretamente no núcleo do processador. Velocidade: É a mais rápida entre os três níveis, devido à sua proximidade com o núcleo do processador. Tamanho: Possui capacidade menor, geralmente entre 16 KB e 128 KB por núcleo. Função: Armazena os dados e instruções mais frequentemente acessados pelo núcleo específico do processador.

Memória Cache (L2)

Localização: Geralmente também integrada ao processador, mas um pouco mais afastada dos núcleos individuais. Velocidade: Mais lenta que a L1, mas ainda significativamente mais rápida que a memória RAM. Tamanho: Tem capacidade maior que a L1, variando entre 128 KB e 8 MB por núcleo ou compartilhada entre núcleos. Função: Serve como intermediária entre a cache L1 e a RAM, armazenando dados que não cabem na L1.

Memória Cache (L3)

Localização: Normalmente compartilhada entre todos os núcleos do processador. Velocidade: É a mais lenta entre os níveis de cache, mas ainda muito mais rápida que a RAM. Tamanho: Pode variar de 2 MB a 64 MB ou mais, dependendo do modelo do processador. Função: Complementa os níveis anteriores, armazenando dados que não são tão acessados quanto os da L1 e L2, mas que ainda são importantes para reduzir o acesso à RAM.

Hierarquia e Funcionamento

Quando o processador precisa de um dado, ele verifica primeiro na cache L1. Se não estiver lá, procura na L2 e, em seguida, na L3. Caso nenhuma das caches contenha a informação, o processador acessa a memória RAM, que é mais lenta.

Importância

A memória cache melhora significativamente o desempenho do sistema, permitindo que o processador execute tarefas de forma mais eficiente. O balanceamento entre velocidade e capacidade nos diferentes níveis é fundamental para a performance geral.

Técnicas de processamento paralelo

1. Pipelining Divide a execução de uma tarefa em várias etapas, permitindo que diferentes partes dessa tarefa sejam processadas em simultâneo. Exemplo: Um processador que realiza a busca, descodificação e execução de instruções ao mesmo tempo. 2. Multithreading - Permite que um programa seja dividido em múltiplas threads (subprocessos) que são executadas em paralelo, geralmente no mesmo núcleo físico. Exemplo: O Hyper-Threading nos processadores Intel, onde um núcleo físico simula dois núcleos lógicos para melhorar a eficiência. 3. Multiprocessamento Utiliza múltiplos processadores ou núcleos físicos para executar tarefas em paralelo. Cada processador pode lidar com uma tarefa diferente ou com partes da mesma tarefa. Exemplo: Computadores modernos com processadores multi-core, como os AMD Ryzen ou Intel Core i7.

4. SIMD (Single Instruction, Multiple Data) Uma única instrução é aplicada a vários dados em simultâneo, sendo útil para cálculos repetitivos em grandes conjuntos de dados. Exemplo: Processamento gráfico em GPUs ou o uso de instruções SIMD (como SSE ou AVX) em CPUs para acelerar cálculos matemáticos. 5. MIMD (Multiple Instructions, Multiple Data) Permite que múltiplas instruções sejam executadas ao mesmo tempo em diferentes conjuntos de dados, oferecendo alta flexibilidade e desempenho. Exemplo: Supercomputadores e clusters de servidores utilizados em simulações científicas ou inteligência artificial. 6. Processamento Assíncrono Tarefas independentes são executadas sem dependências entre si, evitando bloqueios e aumentando a eficiência global do sistema. Exemplo: Um servidor web que processa múltiplos pedidos de clientes enquanto realiza cálculos no background.

7. MapReduce Divide grandes conjuntos de dados em partes menores, processa-as paralelamente e combina os resultados finais. Exemplo: Plataformas de Big Data, como Hadoop ou Spark, utilizadas para análise de dados em larga escala. 8. Execução Especulativa O processador executa várias ramificações possíveis de uma tarefa antes de saber qual delas será realmente necessária, utilizando ciclos ociosos. Exemplo: Previsão de saltos (branch prediction) em processadores modernos para melhorar a eficiência.

Processadores de Vários Núcleos (Multicore)

O que são?

Processadores de múltiplos núcleos têm dois ou mais núcleos de processamento independentes integrados no mesmo chip. Cada núcleo pode processar instruções de maneira autônoma, permitindo a execução de múltiplas tarefas em paralelo.

Vantagens:

Paralelismo: Aumenta a capacidade de executar várias tarefas simultaneamente, melhorando o desempenho em aplicações multitarefa. Eficiência Energética: Consomem menos energia em comparação com um único núcleo operando em altas frequências para realizar a mesma tarefa. Desempenho em Aplicações Modernas: Beneficiam aplicações otimizadas para múltiplos núcleos, como edição de vídeo, jogos e servidores.

CISC (Complex Instruction Set Computer)

Características:

  • Instruções complexas que podem executar múltiplas tarefas em uma única instrução.
  • Reduzem a quantidade de código, tornando os programas menores.
  • As instruções podem levar mais ciclos de clock para serem concluídas.
  • Exemplos: Processadores da arquitetura x86, usados em desktops e laptops.

Vantagens

DesVantagens

  • Simplicidade na codificação do software, já que menos instruções precisam ser escritas.
  • Boa compatibilidade com software legado.
  • Menor eficiência energética.
  • Maior complexidade no design do processador.

CISC (Complex Instruction Set Computer)

Características:

  • Conjunto de instruções simples e rápidas.
  • Cada instrução é projetada para ser executada em um único ciclo de clock.
  • Foco em maior eficiência e menor consumo de energia.
  • Exemplos: Arquiteturas ARM, usadas em dispositivos móveis e IoT.

Vantagens

DesVantagens

  • Melhor desempenho em tarefas repetitivas e de alta frequência.
  • Consumo de energia reduzido, ideal para dispositivos portáteis.
  • Programas podem ser maiores, pois mais instruções são necessárias para realizar tarefas complexas.

VS

CISC:

RISC:

FBS (Front Side Bus)

o que é?:

É um componente importante em arquiteturas de computadores mais antigas, especialmente em sistemas baseados em processadores Intel. Ele atua como o principal canal de comunicação entre a CPU (Unidade Central de Processamento) e outros componentes do sistema, como:

  • Chipset (Northbridge): Que por sua vez conecta a CPU à memória RAM, ao barramento AGP/PCIe e outros periféricos.
  • Memória principal (RAM).
  • Dispositivos de entrada e saída conectados à placa-mãe.

FBS (Front Side Bus)

Características:

-Frequência: A velocidade do FSB é medida em MHz (megahertz) e influencia diretamente a taxa de transferência de dados. Frequências comuns variam de 66 MHz a 1600 MHz, dependendo da geração do processador. -Largura de Banda: O FSB desempenha um papel crucial na taxa de transferência entre a CPU e outros dispositivos. Um FSB mais rápido pode melhorar o desempenho do sistema, pois reduz gargalos na comunicação. -Multiplicador da CPU: A frequência da CPU é obtida multiplicando a frequência base do FSB pelo multiplicador do processador. Por exemplo: FSB de 200 MHz com multiplicador de 10 → CPU com 2 GHz.

HYPERTRANSPORT(AMD)

O HyperTransport (HT) é uma tecnologia de interconexão de alta velocidade e baixa latência desenvolvida pela AMD. Foi introduzida para melhorar a comunicação entre processadores, memória e outros componentes em sistemas informáticos. O HyperTransport fornece uma ligação ponto-a-ponto escalável para a transferência eficiente de dados, sendo utilizado principalmente em sistemas com processadores AMD.

Principais Características do HyperTransport:

Alta Largura de Banda: O HT suporta taxas de transferência de dados até 51,2 GB/s, dependendo da versão e configuração. Baixa Latência: A tecnologia foi concebida para comunicações rápidas com um atraso mínimo, ideal para computação de alto desempenho. Escalabilidade: É escalável, o que permite a sua utilização em diferentes tipos de sistemas, desde computadores pessoais a servidores avançados. Múltiplas Versões: Evoluiu ao longo do tempo, com cada versão a oferecer maior velocidade e novos recursos. Por exemplo: HT 1.0: Largura de banda até 12,8 GB/s HT 2.0: Dobrou a largura de banda do HT 1.0 HT 3.0 e 3.1: Introduziram gestão dinâmica de energia e velocidades ainda maiores.

Quickpath Interconnect (QPI-Intel)

o QUE É?

É uma tecnologia desenvolvida pela Intel para substituir o antigo Front Side Bus (FSB), introduzida pela primeira vez com os processadores Intel Nehalem (2008). O QPI foi projetado para oferecer maior largura de banda, menor latência e comunicação mais eficiente entre componentes críticos do sistema.

Quickpath Interconnect (QPI-Intel)

cARACTERÍSTICAS:

  1. Conexões ponto a ponto:
Diferente do FSB, que utiliza um barramento compartilhado, o QPI implementa uma arquitetura ponto a ponto, permitindo comunicações dedicadas entre o processador e outros componentes, como o chipset ou outros processadores em sistemas multiprocessados. 2.Altíssima largura de banda: O QPI oferece taxas de transferência significativamente maiores em comparação com o FSB, graças à sua capacidade de transmitir dados em alta frequência e de forma paralela. Um link QPI pode fornecer até 25,6 GB/s (dependendo da geração e configuração do sistema). 3.Transmissão serial e pacotes: O QPI utiliza uma abordagem serial e bidirecional, enviando dados em pacotes compactos por múltiplas pistas (ou "lanes"). Cada link é composto por 20 pistas para transmissão e 20 para recepção.

oRGANIZAÇÃO D0 SISTEMA DE E/S

A organização do sistema de entrada/saída (E/S) refere-se à estrutura e ao funcionamento dos componentes responsáveis pela comunicação entre o processador, a memória e os dispositivos externos (de entrada, saída e armazenamento). Essa organização é fundamental para permitir que o sistema interaja com o mundo externo e com dispositivos periféricos de forma eficiente e confiável.

fim!