Decomposição generalizada adequada - Proper generalized decomposition

A decomposição generalizada adequada ( PGD ) é um método numérico iterativo para resolver problemas de valor de contorno (BVPs), ou seja, equações diferenciais parciais restritas por um conjunto de condições de contorno, como a equação de Poisson ou a equação de Laplace .

O algoritmo PGD calcula uma aproximação da solução do BVP por enriquecimento sucessivo. Isso significa que, em cada iteração, um novo componente (ou modo ) é calculado e adicionado à aproximação. Em princípio, quanto mais modos forem obtidos, mais próxima será a aproximação de sua solução teórica. Ao contrário dos componentes principais do POD , os modos PGD não são necessariamente ortogonais entre si.

Selecionando apenas os modos PGD mais relevantes, um modelo de ordem reduzida da solução é obtido. Por isso, o PGD é considerado um algoritmo de redução de dimensionalidade .

Descrição

A decomposição generalizada adequada é um método caracterizado por

  1. uma formulação variacional do problema,
  2. uma discretização do domínio no estilo do método dos elementos finitos ,
  3. a suposição de que a solução pode ser aproximada como uma representação separada e
  4. um algoritmo guloso numérico para encontrar a solução.

Formulação variacional

A formulação variacional mais implementada em PGD é o método Bubnov-Galerkin , embora existam outras implementações.

Discretização de domínio

A discretização do domínio é um conjunto bem definido de procedimentos que abrangem (a) a criação de malhas de elementos finitos, (b) a definição da função de base em elementos de referência (também chamadas de funções de forma) e (c) o mapeamento de elementos de referência sobre os elementos da malha.

Representação separada

PGD ​​assume que a solução u de um problema (multidimensional) pode ser aproximada como uma representação separada da forma

onde o número de adendos N e os produtos funcionais X 1 ( x 1 ), X 2 ( x 2 ), ..., X d ( x d ), cada um dependendo de uma variável (ou variáveis), são previamente desconhecidos.

Algoritmo ganancioso

A solução é buscada aplicando um algoritmo guloso , geralmente o algoritmo de ponto fixo , à formulação fraca do problema. Para cada iteração i do algoritmo, um modo da solução é calculado. Cada modo consiste em um conjunto de valores numéricos dos produtos funcionais X 1 ( x 1 ), ..., X d ( x d ), que enriquecem a aproximação da solução. Devido à natureza gananciosa do algoritmo, o termo 'enriquecer' é usado em vez de 'melhorar', uma vez que alguns modos podem piorar a abordagem. O número de modos computados necessários para obter uma aproximação da solução abaixo de um certo limite de erro depende do critério de parada do algoritmo iterativo.

Características

PGD ​​é adequado para resolver problemas de alta dimensão, uma vez que supera as limitações das abordagens clássicas. Em particular, PGD evita a maldição da dimensionalidade , já que resolver problemas desacoplados é computacionalmente muito menos caro do que resolver problemas multidimensionais.

Portanto, PGD permite readaptar problemas paramétricos em uma estrutura multidimensional, definindo os parâmetros do problema como coordenadas extras:

onde uma série de produtos funcionais K 1 ( k 1 ), K 2 ( k 2 ), ..., K p ( k p ), cada um dependendo de um parâmetro (ou parâmetros), foi incorporada à equação.

Neste caso, a aproximação obtida da solução é chamada de vademecum computacional : um metamodelo geral contendo todas as soluções particulares para cada valor possível dos parâmetros envolvidos.

Aprendizagem Sparse Subespaço

O método Sparse Subspace Learning (SSL) alavanca o uso de colocação hierárquica para aproximar a solução numérica de modelos paramétricos. Com relação à modelagem de ordem reduzida baseada em projeção tradicional, o uso de uma colocação permite uma abordagem não intrusiva com base na amostragem adaptativa esparsa do espaço paramétrico. Isso permite recuperar a estrutura de baixa dimensão do subespaço da solução paramétrica enquanto também aprende a dependência funcional dos parâmetros de forma explícita. Uma representação esparsa de tensor aproximado de baixa classificação da solução paramétrica pode ser construída por meio de uma estratégia incremental que só precisa ter acesso à saída de um solucionador determinístico. A não intrusão torna essa abordagem diretamente aplicável a problemas desafiadores caracterizados pela não linearidade ou formas fracas não afins.

Referências