Esta seção contém orientações de alocação de processador para partições de processador dedicado e partições de processador compartilhado.
Como a Ethernet que executa o tamanho MTU de 1.500 bytes consome mais ciclos do processador que a Ethernet que executa quadros grandes (MTU 9.000), as diretrizes são diferentes para cada situação. Em geral, a utilização do processador para cargas de trabalho de pacotes grandes em quadros grandes é aproximadamente metade daquela requerida para a MTU 1.500.
Se a MTU for configurada para 1.500, forneça um processador (1,65 Ghz) por adaptador Ethernet Gigabit para ajudar a alcançar a largura da banda máxima. Isso equivale a dez adaptadores Ethernet de 100 Mb, se você estiver utilizando redes menores. Para cargas de trabalho de transações menores, planeje o uso de um processador completo para impulsionar a carga de trabalho da Ethernet Gigabit para o máximo rendimento do processamento. Por exemplo, se dois adaptadores Ethernet Gigabit forem utilizados, aloque até dois processadores para a partição.
Se a MTU for configurada para 9.500 (quadros grandes), forneça 50% de um processador (1,65 Ghz) por adaptador Ethernet Gigabit para alcançar a largura da banda máxima. Cargas de trabalho de pacotes pequenos devem ser planejadas para utilizar um processador completo para conduzir a carga de trabalho da Ethernet Gigabit. Os quadros grandes não possuem efeito no caso da carga de trabalho de pacotes pequenos.
O dimensionamento fornecido é dividido em dois tipos de carga de trabalho: fluxo TCP e pedido/resposta TCP. As redes MTU 1.500 e MTU 9.000 foram utilizadas no dimensionamento, que é fornecido em termos de ciclos da máquina por byte de rendimento do processamento para fluxo ou por transação para cargas de trabalho de pedido/resposta.
Os dados nas tabelas a seguir foram derivados da utilização da seguinte fórmula:
(número de processadores × processor_utilization × freqüência do clock do processador) / Taxa de rendimento do processamento em bytes por segundo ou transação por segundo = ciclos por Byte ou transação.
Para os propósitos deste teste, os números foram medidos em uma partição lógica com um processador de 1,65 Ghz com o SMT (Simultaneous Multi-Threading) ativado.
Para outras freqüências de processador, os números nestas tabelas podem ser escalados pela proporção das freqüências de processador para valores aproximados a serem utilizados para dimensionamento. Por exemplo, para uma velocidade do processador de 1,5 Ghz, utilize 1,65/1,5 × valor de ciclos por byte na tabela. Este exemplo resultaria em um valor de 1,1 vezes o valor na tabela, exigindo 10% a mais de ciclos para ajustar à taxa do clock 10% mais lenta do processador de 1,5 Ghz.
Para utilizar esses valores, multiplique sua taxa de rendimento do processamento requerida (em bytes ou transações) pelo valor de ciclos por byte nas tabelas a seguir. Esse resultado fornecerá os ciclos da máquina requeridos para a carga de trabalho a uma velocidade de 1,65 Ghz. Em seguida, ajuste esse valor pela proporção da velocidade real da máquina para essa velocidade de 1,65 Ghz. Para descobrir o número de processadores, divida o resultado por 1.650.000.000 ciclos (ou pela taxa de ciclos, se você ajustou para uma máquina de velocidade diferente). Você precisaria do número resultante de processadores para conduzir a carga de trabalho.
Por exemplo, se o Virtual I/O Server precisasse entregar 200 MB de rendimento do processamento do fluxo, a seguinte fórmula seria utilizada:
200 × 1.024 × 1.024 × 11,2 = 2.348.810.240 ciclos / 1.650.000.000 ciclos por processador = 1,42 processadores.
Em números arredondados, seriam necessários 1,5 processadores no Virtual I/O Server para manipular essa carga de trabalho. Esse carga de trabalho poderia, então, ser manipulada com uma partição dedicada de 2 processadores ou uma partição de processador compartilhado de 1,5 processadores.
As tabelas a seguir mostram os ciclos da máquina por byte para uma carga de trabalho de fluxo TCP.
| Tipo de Fluxo | Taxa de MTU 1.500 e Utilização do Processador | MTU 1.500, Ciclos por Byte | Taxa de MTU 9.000 e Utilização do Processador | MTU 9.000, Ciclos por Byte |
|---|---|---|---|---|
| Simplex | 112,8 MB em 80,6% do processador | 11,2 | 117,8 MB em 37,7% do processador | 5 |
| Duplex | 162,2 MB em 88,8% do processador | 8,6 | 217 MB em 52,5% do processador | 3,8 |
| Tipo de Fluxo | Taxa de MTU 1.500 e Utilização do Processador | MTU 1.500, Ciclos por Byte | Taxa de MTU 9.000 e Utilização do Processador | MTU 9.000, Ciclos por Byte |
|---|---|---|---|---|
| Simplex | 112,8 MB em 66,4% do Processador | 9,3 | 117,8 MB em 26,7% do Processador | 3,6 |
| Duplex | 161,6 MB em 76,4% do Processador | 7,4 | 216,8 MB em 39,6% do Processador | 2,9 |
As tabelas a seguir mostram os ciclos da máquina por transação para uma carga de trabalho de pedido e resposta. Uma transação é definida como um tamanho de percurso completo de pedido e resposta.
| Tamanho da Transação | Transações por Segundo e Utilização do Virtual I/O Server | MTU 1.500 ou 9.000, Ciclos por Transação |
|---|---|---|
| Pacotes pequenos (64 bytes) | 59.722 TPS em 83,4% do processador | 23.022 |
| Pacotes grandes (1.024 bytes) | 51.956 TPS em 80% do processador | 25.406 |
| Tamanho da Transação | Transações por Segundo e Utilização do Virtual I/O Server | MTU 1.500 ou 9.000, Ciclos por Transação |
|---|---|---|
| Pacotes pequenos (64 bytes) | 60.249 TPS em 65,6% do processador | 17.956 |
| Pacotes grandes (1.024 bytes) | 53.104 TPS em 65% do processador | 20.196 |
As tabelas anteriores demonstram que a opção de encadeamento da Ethernet compartilhada inclui código extra. Isso consiste aproximadamente em 16% a 20% de código extra para fluxo MTU 1500 e 31% a 38% de código extra para MTU 9000. A opção de encadeamento possui código extra em cargas de trabalho inferiores devido aos encadeamentos iniciados para cada pacote. Em taxas de cargas de trabalho superiores, como full duplex ou cargas de trabalho de pedido e resposta, os encadeamentos podem ser executados por mais tempo sem espera e novo dispatch. A opção de encadeamento é uma opção por Ethernet compartilhada que pode ser configurada por comandos do Virtual I/O Server. Desative a opção de encadeamento se a Ethernet compartilhada estiver executando uma partição do Virtual I/O Server sozinha (sem o Virtual SCSI na mesma partição).
Você pode ativar ou desativar o encadeamento utilizando a opção -attr thread do comando mkvdev. Para ativar o encadeamento, utilize a opção -attr thread=1. Para desativar o encadeamento, utilize a opção -attr thread=0. Por exemplo, o seguinte comando desativa o encadeamento para o adaptador Ethernet compartilhado ent1:
mkvdev -sea ent1 -vadapter ent5 -default ent5 -defaultid 1 -attr thread=0
A criação de uma partição de processador compartilhado para um Virtual I/O Server poderá ser executada se o Virtual I/O Server estiver executando redes de velocidade mais lenta (por exemplo 10/100 Mb) e uma partição de processador completo não for necessária. É recomendável que isso seja executado apenas se a carga de trabalho do Virtual I/O Server for menor que a metade de um processador ou se a carga de trabalho for inconsistente. A configuração da partição do Virtual I/O Servercomo ilimitada também pode permitir que ela utilize mais ciclos do processador que o necessário para manipular o rendimento do processamento inconsistente. Por exemplo, se a rede for utilizada apenas quando outros processadores estiverem inativos, a partição do Virtual I/O Server estará apta a utilizar outros ciclos da máquina e poderá ser criada com processador mínimo para manipular um carga de trabalho leve durante o dia e o processador ilimitado poderá utilizar mais ciclos da máquina à noite.
Se você estiver criando um Virtual I/O Server em uma partição de processador compartilhado, inclua uma designação de processador adicional como uma contingência de dimensionamento.