Questões de Complexidade de Algoritmos (Algoritmos e Estrutura de Dados)

Limpar Busca

O analista José precisa escolher entre dois algoritmos, Abusca e Cbusca. José sabe que, sendo N o tamanho da entrada do algoritmo, Abusca requer 2N + log2(N) operações para ser executado. Já o Cbusca requer N4 + N operações para ser executado. José determinou, na notação O-grande, a complexidade de tempo no pior caso para cada algoritmo e, por fim, deve escolher o algoritmo que apresenta a menor ordem de complexidade no pior caso.

José deve escolher o algoritmo:

  • A Cbusca, que possui complexidade O(N);
  • B Abusca, que possui complexidade O(2N);
  • C Cbusca, que possui complexidade O(N4 );
  • D Cbusca, que possui complexidade O(3N);
  • E Abusca, que possui complexidade O(log(N)).

O cálculo da complexidade computacional é essencial para verificar a viabilidade do algoritmo. Observe o código a seguir, em Python, para o problema da torre de Hanoi.

def hanoi(n, o, d, a):
if n==1:
print("D1 de "+o+" p/ "+d)
else:
hanoi(n-1, o, a, d)
print("D"+str(n)+" de "+o+" p/ "+d)
hanoi(n-1, a, d, o)

A complexidade desse algoritmo no pior caso é:

  • A O(2n );
  • B O(n);
  • C O(n log n);
  • D O(n2 );
  • E O(log n).

Filtros de Partículas são implementações não paramétricas de filtros Bayesianos em que as distribuições de probabilidade não são explicitamente definidas, sendo, portanto, representadas por um conjunto de amostras provenientes delas próprias (denominadas partículas).

Com relação aos filtros de partículas, analise as afirmativas a seguir e assinale (V) para a verdadeira e (F) para a falsa.

( ) As partículas representam observações (ou medidas) obtidas por sensores aplicados ao sistema em análise, e a elas são associados pesos proporcionais às suas probabilidades de coincidirem com medidas correspondentes ao estado verdadeiro do sistema.
( ) Quando aplicados à assimilação de dados, a cada passo de assimilação, novos pesos são atribuídos às partículas. Caso não seja realizado nenhum processo de reamostragem, o conjunto de partículas costuma degenerar-se, com uma das partículas recebendo peso normalizado próximo de 1 e as outras partículas recebendo pesos normalizados próximos de 0.
( ) São capazes de representar distribuições de probabilidade multimodais, isto é, cujas densidades de probabilidade possuem mais de um máximo local.

As afirmativas são, respectivamente,

  • A F – F – V.
  • B V – V – F.
  • C V – V – V.
  • D F – V – V.
  • E F – V – F.

A reamostragem em filtros de partículas pode ser realizada por meio da criação de novas amostras retiradas das distribuições de probabilidade discretas correspondentes a conjuntos de partículas e suas configurações de pesos. No entanto, o fato de as novas amostras serem criadas exatamente nos mesmos pontos do espaço em que se localizam as partículas anteriores é inconveniente, pois facilita o empobrecimento das partículas (i.e., o chamado particle impoverishment).

Uma forma de produzir um novo conjunto de partículas em pontos distintos é substituir as distribuições discretas de probabilidade por aproximações contínuas e, somente então, realizar a reamostragem. A criação dessas aproximações se dá por meio de uma operação matemática entre a distribuição de probabilidade discreta e um kernel contínuo.

Nesse contexto, o processo de reamostragem em distribuições de probabilidade contínuas, que aproximam distribuições discretas correspondentes às configurações de partículas, é chamado de

  • A Convolução.
  • B Suavização.
  • C Integração.
  • D Nuclearização.
  • E Regularização.

O problema de previsão numérica de tempo em escala global é de altíssima dimensionalidade, envolvendo, por exemplo, representações de estados com centenas de milhões de variáveis.

Essa alta dimensionalidade impõe grandes dificuldades para a aplicação de filtros de partículas (PF) em problemas de assimilação de dados com muitas observações independentes, porque nessas situações o número de partículas necessárias para representar as distribuições de probabilidade cresce exponencialmente.

Técnicas recentemente desenvolvidas que visam contornar essas dificuldades baseiam-se em combinar filtros de partículas e filtros de Kalman por conjunto (EnKF), criando-se soluções híbridas PF-EnKF.

Assinale a opção que indica a principal vantagem de se utilizar filtros híbridos PF-EnKF.

  • A A redução do número de partículas necessárias para representar distribuições, que passam a ser caracterizadas apenas pelo primeiro e pelo segundo momentos.
  • B A seleção de faixas específicas das variáveis de estado, reduzindo a dimensionalidade momentaneamente a cada passo de assimilação.
  • C Sua adequação a distribuições não gaussianas quando necessário, ao mesmo tempo que se tenta manter a eficiência dos EnKF quando as distribuições são gaussianas.
  • D Sua convergência mais rápida, em que uma partícula se sobressai com relação às demais em poucos passos de assimilação.
  • E Sua maior simplicidade de implementação, pois o processo de reamostragem por importância torna-se uma etapa desnecessária nos passos de assimilação, podendo ser evitado.