Processing math: 100%

Mudanças entre as edições de "Map2321"

De Stoa
Ir para: navegação, pesquisa
(Uma técnica de linearização)
(Uma técnica de linearização)
 
(2 edições intermediárias de um usuário não apresentadas)
Linha 146: Linha 146:
 
\omega_2(t) = \sin(K\omega_0 t) \\
 
\omega_2(t) = \sin(K\omega_0 t) \\
 
\omega_3(t) = \omega_0
 
\omega_3(t) = \omega_0
\end{gather}
+
\end{gather}</math>
 +
 
 +
O sistema linearizado, ao longo desta trajetória fica:
 +
{{bluemath|1=
 +
<math>(˙x1˙x2˙x3)=
 +
\begin{pmatrix}0 & -K\omega_0 & -K\sin(K\omega_0 t) \\
 +
K\omega_0 & 0 & K\cos(K\omega_0t)  \\
 +
0 & 0 & 0
 +
\end{pmatrix}(x1x2x3)+(100010001)(u1u2u3)</math>
 +
}}
 +
Neste caso o sistema linear não é invariante no tempo!
  
 
== Exponencial de matrizes ==
 
== Exponencial de matrizes ==

Edição atual tal como às 18h10min de 14 de agosto de 2013

Tecontrol4.png

Se você quiser editar leia as Dicas de formatação deste wiki, e mãos à obra!.


Conteúdo

 [ocultar

[editar] Aspectos históricos da teoria de Controle

Em praticamente todos os sistemas da natureza há a possibilidade de intervenção que permite exercer algum controle sobre o sistema. Aspectos tecnológicos nos fazem procurar uma forma de exercer este controle automaticamente. É o que chamaremos de retroalimentação do sistema.

Basicamente a origem da teoria de controle são os sistemas de regulagem, isto é, procura-se desenvolver um processo automático para que um sistema fique numa situação de equilíbrio. Assim um sensor detecta se o sistema está se desregulando e um controlador atuaria automaticamente para restabelecer o equilibrio. Claro que muitos mecanismos engenhosos foram desenvolvidos durante milênios para resolver este problema, porém um caso interessante era o de controle de velocidade de moinhos de vento. Huygens inventou um instrumento conhecido como flyball que na pratica resolvia o problema. Esta mesma idéia do flyball foi usada depois por Watt em máquinas para o controle de fluxo de vapor. Este modelo que funcionava na prática tinha um problema de excesso de vibração para velocidades muito altas. Foi Maxwell quem elaborou um modelo matemático para o flyball e colocou o problema de eliminação das vibrações como um problema de estabilização. Este foi, pode-se dizer, o primeiro problema matemático da teoria de controle.

No começo do século XX, o desenvolvimento das redes de comunicações telefônicas, propiciou o aparecimento de novos modelos e a utilização de métodos da teoria de funções a variáveis complexas para eliminação de ruídos e filtragens de sinais. Os trabalhos pioneiros nesta linha deveu-se a Black, Bode e Nyquist do grupo do laboratório Bell. O conjunto de métodos desenvolvidos por eles influenciou bastante a engenharia e é chamado de teoria de controle clássica. Isso foi mais ou menos em 1930. Depois da segunda guerra mundial os métodos de otimização ganharam importância e é um mérito da teoria de Pontriaguin o estudo da teoria de controle ótimo. O desenvolvimento da teoria de sistemas dinâmicos propiciou uma nova abordagem para os sistemas de controles lineares. Assim nas décadas de 1960 e 1970 desenvolveu-se bastante uma teoria estrutural dos sistemas de controle. E nesta abordagem "moderna" baseada no espaço de estados dos sistemas são importantes os conceitos de controlabilidade e observabilidade introduzidos por Kalman. No final do século passado desenvolveram-se os métodos geometricos para o estudo de sistema de controle não linear. Em todos estes tópicos há ainda pesquisa bastante ativa. --Patonelli 15h27min de 24 de agosto de 2009 (UTC)patonelli

[editar] Exemplos de sistemas de controle

[editar] Um satélite simples num campo newtoniano

satélite num campo newtoniano

Uma partícula de massa m está sob ação de um campo de acelerações central newtoniano. Além disso podemos colocar dois controles independentes, um na direção radial e outro na direção tangencial ur e uθ respectivamente. A equação dinâmica deste sistema é dada pela segunda lei de Newton:

m¨r=(kr2+ur)er+uθeθ

fazendo a massa m=1 para que eu não tenha que ficar digitando coisas a mais. Podemos reecrever as equações em coordenadas polares como:

¨r=r˙θ2kr2+ur

r¨θ=2˙r˙θ+uθ

Estas duas equações nos dão um sistema de controle não linear com duas entradas de controle. Voltaremos a este exemplo quando falarmos de linearização.

--Patonelli 21h10min de 22 de agosto de 2009 (UTC)patonelli

[editar] O pêndulo invertido

Esquema de um pêndulo invertido num carrinho

O pêndulo invertido é um problema clássico em teoria de controle, as equações do movimento são:

(M+m)¨xml¨θcosθ+ml˙θ2sinθ=F

ml(gsinθ¨xcosθ+l¨θ)=0

A variável de controle aqui é a força F

[editar] Um forno simplificado

forno simplificado

A figura mostra o esquema de um forno constituído de uma jaqueta de um material (a parte cinza) que é aquecido por uma resistência, e o calor é transmitido para o interior do forno. A taxa de calor u(t) é o controle do sistema. As temperaturas (que estamos supondo ser uniformemente distribuídas no espaçao!) T1(t) e T2(t) são as variáveis de estados. Sendo c1 e c2 as capacidades térmicas da jaqueta e do interior do forno respectivamente; a1 e a2 área exterior e interior da jaqueta; r1 e r2 os coeficientes de transmissão de calor da parte externa e interna da jaqueta e T0 a temperatura exterior. A equação de balanço térmico nos dá:

c1˙x1(t)=(r2a2r1a1)x1+r2a2x2+u(t)

c2˙x2(t)=r2a2x1r2a2x2

Onde x1=T1T0 e x2=T2T0

[editar] Um circuito elétrico

equações dos componentes elétricos

Na figura ao lado vemos as equações dinâmicas de alguns componentes elétricos: resistores, condensadores e indutores. Usaremos estas equações e as leis de Kirchoff dos nós e das malhas para escrever a relação dinâmica entre voltagem e corrente do circuito abaixo.

Circuito do exemplo

Chamaremos de x1 a voltagem pelo capacitor C do circuito, e de x2 a corrente através do indutor L Aplicando as leis constitutivas dos elementos e as leis de Kirchoff temos as relações dinâmicas

˙x1=x1R1C+vR1C

˙x2=x2R2L+vL
i(t)=x1R1+x2+v(t)R1

Neste caso v(t) é a única entrada do sistema (e portanto o controle) e a corrente é a saída do sistema. Para encontrar a relação entre entrada e saída temos resolver uma equação diferencial nas variáveis x1 e x2, que podem ser interpretadas como variáveis auxiliares neste caso. --Patonelli 21h32min de 22 de agosto de 2009 (UTC)patonelli

[editar] Um modelo de economia

Num modelo simples podemos definir as seguintes variáveis,

Yn é a receita anual  no ano n
Cn total do consumo no ano n
In investimento no ano
Gn gastos do governo

A equação dinâmica é determinada pelas seguintes relações entre as variáveis

  1. Yn=Cn+In+Gn
  2. Cn=f(Yn1) O nível de consumo depende da receita do último ano.
  3. In=g(CnCn1) Investimentos dependem da variação de consumo.

O controle do sistema é Gn. A equação a diferenças finitas fica

Yn=f(Yn1)+g(f(Yn1)f(Yn2))+Gn

--Patonelli 23h04min de 22 de agosto de 2009 (UTC)patonelli

[editar] Caracterização dos sistemas lineares

Os exemplos acima nos dão as principais carecterísticas dos sistemas de controle. Dependendo do sistema ser contínuo ou discreto temos as equações

˙x(t)=f(x(t),u(t))

y(t)=g(x(t),u(t))

e no caso discreto

xn+1=f(xn,un)

yn=g(xn,un)

onde xRn é a variável de estado, yRp é a variável de saída e uRm são os parâmetros de entrada.

As funções estruturais do sistema f:Rn×RmRn e g:Rn×RmRp são usadas para classificar os sistemas. No nosso caso estaremos interessado somente nos casos de sistemas lineares invariantes no tempo, ou seja quando

f(x,u)=Ax+Bu

g(x,u)=Cx

Com A matriz n×n, B matriz n×m e C matriz p×n. Nas próximas sessões vamos analisar mais detalhadamente estes exemplos.

[editar] Uma técnica de linearização

Se (x0,u0) for um ponto de equilíbrio do campo f(x,u) então o sistema

˙z=fx(x0,u0)z+fu(x0,u0)v

é o sistema linearizado em torno do ponto de equilíbrio. A mesma técnica é utilizada para o ponto de equilíbrio de um sistema discreto. Lembro que o ponto de equilíbrio de um sistema discreto satisfaz f(x0,u0)=x0 e do sistema contínuo f(x0,u0)=0

Como exemplo retomamos a equação do satélite. fazendo uθ=ur=0, encontramos um movimento circular uniforme que é uma trajetória de equilíbrio para um determinado momento angularr(t)=r0,θ(t)=ωt Agora fazemos as mudanças de variáveis:

x1=r(t)r0,x2=˙x1,x3=θ(t)ωt,x4=˙x3

e usando a técnica de linearização ensinada obtemos os sistema linear:

(˙x1˙x2˙x3˙x4)=(01003ω2002ωr0000102ωr000)(x1x2x3x4)+(00100001)(u1u2)

Vamos considerar um segundo exemplo, das equações de Euler de um corpo rígido. As equações são as seguintes:

I1˙ω1=(I2I3)ω2ω3+u1I2˙ω2=(I3I1)ω1ω3+u2I3˙ω3=(I1I2)ω1ω2+u3

Vamos considerar I1=I2 e linearizar o sistema resultante em torno de ui=0 e da trajetória particular ω1(t)=cos(Kω0t)ω2(t)=sin(Kω0t)ω3(t)=ω0

O sistema linearizado, ao longo desta trajetória fica:

(˙x1˙x2˙x3)=(0Kω0Ksin(Kω0t)Kω00Kcos(Kω0t)000)(x1x2x3)+(100010001)(u1u2u3)

Neste caso o sistema linear não é invariante no tempo!

[editar] Exponencial de matrizes

Defineremos a exponencial de uma matriz A=(aij)Rn×n como a soma da série:

exp(A)=k=0Akk!

Esta soma converge absolutamente uma vez que introduzimos no espaço das matrizes a norma induzida da norma euclidiana em Rn isto é

A=supx0{Ax2x2}

As principais propriedades da exponencial de matrizes:

Propriedades
  1. exp(0)=I
  2. exp([α+β]A)=exp(αA)exp(βA)
  3. exp(A)exp(A)=I
  4. exp(A+B)=exp(A)exp(B) se A e B comutam
  5. exp(SAS1)=Sexp(A)S1
  6. dexp(tA)dt=Aexp(tA)

[editar] Solução das equações lineares não homegêneas

Em primeiro lugar note que pela propriedade 6 acima a curva x(t)=exp(tA)v é solução da equação diferencial

˙x=Ax

para que satisfaça também a condição inicial x(t0)=x0 basta escolher v=exp(t0A)x0 desta forma

x(t)=exp(tt0)Ax0
é solução do problema de Cauchy:
˙x=Ax

x(t0)=x0

Da mesma forma para resolvermos o problema não homogêneo:

˙x=Ax+Bu(t)

x(t0)=x0

Notemos que a curva x(t)=exp(tA)v(t) satisfaz a equação: ˙x=Ax+exp(tA)˙v(t) Resolvendo a equação em v(t) exp(tA)˙v(t)=Bu(t) exp(t0A)v(t0)=x0 obtemos v(t)=x0+tt0exp(sA)Bu(s)ds e finalmente obtemos a nossa aplicação de transição de estados

x(t,t0,x0,u())=exp((tt0)A)x0+tt0exp([ts]A)Bu(s)ds

[editar] Exemplo simples

Esboço das trajetórias usando controles constantes u=1 e u=-1

O sistema ¨x=u(t) pode ser escrito como:

(˙x˙y)=(0100)(xy)+(01)u(t)

A aplicação da fórmula para a condição inicial no instante t=0, lembrando que exp(tA)=(1t01), nos dá

(x(t)y(t))=(x0+y0t+t0(ts)u(s)dsy0+t0u(s)ds)

[editar] Controlabilidade

Antes de abordar controlabilidade convém falar de dois tópicos:

[editar] Controles admissíveis

Translação nos controles
Concatenação de controles

A controlabilidade estuda a relação entre os controles e os pontos atingíveis no espaço de estados. Por isso é importante dar algumas propriedades estruturais do conjunto dos controles. Nesta disciplina chamaremos de Conjunto dos controles admissíveis o seguinte:

U={u:RRm: localmente integraveis }

Este conjunto tem as seguintes propriedades:

  1. É um espaço vetorial,
  2. É invariante pelo sistema dinâmico de translação θt
  3. É fechado pela concatenação t0 para todo t0R
  4. Contém a família das funções constantes por partes

Um subconjunto de U com estas quatro propriedades também pode ser chamado de um conjunto de controles admissíveis e alteraria um pouco o estudo da controlabilidade. Este conjunto que vamos usar pode ser pensado como o maior conjunto de controles admissíveis.

A translação é definida como:

θt(u)(s)=u(st)

e a concatenação no tempo t0 é definida assim

(ut0v)(s)={u(s) se st0v(s) se s>t0

[editar] Propriedades da aplicação de transição de estados

Para os sistemas de controle contínuos de forma geral, aplicação de transição de estados é uma aplicação:

ϕ:R×R×Rn×URn

Satisfazendo as propriedades:

  • ϕ(t,t,x0,u())=x0, chamada de compatibilidade.
  • ϕ(t2,t1,ϕ(t1,t0,x0,u()),v())=ϕ(t2,t0,x0,ut1v()), sistema dinâmico.
  • ϕ(t1,t0,x0,u()) só depende do valor de u(t) no intervalo [t0,t1]

No caso dos sistemas lineares independentes do tempo temos

ϕ(t,t0,x0,u())=exp((tt0)A)x0+tt0exp((ts)A)Bu(s)ds

e neste caso temos ainda as seguintes propriedades:

  • ϕ(t,t0,x0,u())=ϕ(t,t0,x0,0)+ϕ(t1,t0,0,u()): decomposição entre dinâmica livre e controlada
  • ϕ(t,t0,x0+x1,u()+v())=ϕ(t,t0,x0,u())+ϕ(t,t0,x1,v()): princípio da superposição
  • ϕ(t,t0,x0,θt0u())=ϕ(tt0,0,x0,u()): invariante no tempo.

Esta última propriedade é que nos justifica o estudo da controlabilidade só quando o tempo inicial é 0

Se a e b são dois pontos do espaço de estados Rn, dizemos que b é atingível em tempo T a partir de a se existir um controle admissível u(t)U tal que

ϕ(T,0,a,u())=b

Nesta caso dizemos também que o controle u transfere a para b em tempo T. O conjunto de todos os pontos atingíveis a partir de a em tempo T>0 será denotado por A(a,T).

No caso do sistema linear é fácil verificar que

A(a,T)=exp(tA)a+A(0,T)

Diremos que o sistema é controlável quando A(0,T)=Rn.

[editar] Matriz de controlabilidade

Note que o conjunto A(0,T) depende apenas das matrizes A, B do tempo T>0 e da família de controles admissíveis. Quando o sistema for controlável diremos que o par (A,B) é controlável.

Definiremos a matriz de controlabilidade de (A,B) (ou do sistema ) como

QT=T0exp(sA)BBexp(sA)ds

esta matriz é simétrica, semidefinida positiva. Se for definida positiva então é invertível e neste caso o par (A,B) é controlável.

Basta verificar que para qualquer vetor do espaço de estados bRn temos que o controle

ˆu(s)=Bexp((Ts)A)Q1Tb

transfere a origem para b em tempo T

Assim QT ser invertível é uma condição suficiente para a controlabilidade. veremos que é também necessária.

Se o núcleo QT tem um elemento v0 então <QTv,v>=T0||Bexp(sA)v||2ds=0. Pela analiticidade do integrando temos Bexp(sA)v=0s.

Neste caso temos que para todo controle admissível u()U

T0<exp((Ts)A)Bu(s)u(s),v>ds=0

e isto significa que o vetor v não é acessível pois é ortogonal ao conjunto de atingibilidade de 0. Portanto para o sistema ser controlável é necessário que a matriz QT seja invertível.

[editar] Exercício resolvido

Verificar se é controlável o seguinte sistema:

˙[x1x2x3]=[101010201][x1x2x3]+[001]u

QT=T0esABBesAds

A=[101010201];A2=[100010001];A3=[101010201];A4=I;

esA=I+sA+s2A22!+s3A33!+...

esA=[sin(s)+cos(s)0sin(s)0es02sin(s)0sin(s)+cos(s)];

esA=[sin(s)+cos(s)02sin(s)0es0sin(s)0sin(s)+cos(s)];

QT=T0[sin(s)+cos(s)0sin(s)0es02sin(s)0sin(s)+cos(s)][001][001][sin(s)+cos(s)02sin(s)0es0sin(s)0sin(s)+cos(s)]ds

QT=T0[sin2(s)0sin2(s)sin(s).cos(s)000sin2(s)sin(s).cos(s)0(cos(s)sin(s))2]ds

detQT=0sistema não é controlável.

[editar] Critério de controlabilidade de Kalman

Definimos o operador linear:

LT(u())=T0exp(sA)Bu(s)ds

Verifica-se facilmente que o par (A,B) é controlável quando a imagem deste operador linear é o espaço de estados Rn. Como o espaço vetorial U é de dimensão infinita este operador não tem uma representação matricial. Mas se considerarmos o operador

l(A,B):Rm××RmRn

definido como

l(A,B)(u0,,un1)=Bu0+ABu1++An1Bun1

com o auxilio do teorema de Cayley-Hamilton podemos mostrar que para qualquer par de matrizes (A,B) as imagens dos operadores l(A,B) e LT coincidem. Neste caso a dimensão da imagem do l(A,B) é o posto de sua matriz de representação numa base qualquer. Na base canônica a matriz de representação é a matriz de Kalman

K(A,B)=[B(AB)(An1B)]Rn×nm

Assim o par (A,B) é controlável se e somente se o posto de K(A,B) for n.

[editar] Forma Normal de Kalman, ou decomposição de Kalman.

Suponha que a dimensão da imagem do operador l(A,B) seja um número k estritamente menor que a dimensão do espaço de estados. Observamos que o subespaço vetorial V=Im(l(A,B)) é um subespaço invariante por A e que contém a imagem do operador B. Escolhendo uma base de Rn adaptada a este subespaço teremos que nesta nova base o sistema (A,B) terá a forma (˜A,˜B) com

˜A=(A11A120A22)

˜B=(B10)

onde A11Rk×k, A12Rk×(nk), A22R(nk)×(nk) e B1Rk×m. Além disso o par (A11,B1) é controlável. Esta é a forma normal de Kalman

É fácil obter as relações

˜A=P1AP

˜B=P1B

onde P é a matriz de mudança de base da base adaptada para a base canônica. Sempre que tivermos esta relação dizemos que os pares (A,B) e (˜A,˜B) são equivalentes.

[editar] Observabilidade

Retomemos a equação do sistema linear

˙x=Ax+Bu

y=Cx

e verificamos a relação entre as condições iniciais do espaço de estado e a saída do sistema. A questão é: dado o controle admissível podemos identificar o estado inicial do sistema a partir da saída y(t). Diremos que os sistema é observável em tempo T se para quaisquer par de estados xa e xb diferentes, as respectivas funções de saída ya(t) e yb(t) também diferem. Ou seja: existe t[0,T] tal que ya(t)yb(t)0.

Temos que ya(t)yb(t)=Cexp(tA)(xaxb), daí concluímos que o sistema é observável em tempo T, ou o par (A,C) é observável, se e somente se, Cexp(tA)x0 para todo xRn.

Definimos a matriz de observabilidade :

RT=T0exp(sA)CCexp(sA)ds

Então verificamos que

T0Cexp(sA)x2ds=<RTx,x>

donde o par (A,C) é observável se e somente se RT for invertível. Como a matriz de observabilidade de (A,C) é exatamente a matriz de controlabilidade de (A,C) temos as relações de dualidade. O sistema anterior e observável se e somente se o sistema dual

˙z=Az+Cv

w=Bz

for controlável.

Analogamente ao caso da controlabilidade podemos escrever os critérios de Kalman para a observabilidade: o par (A,C) é observável quando a matriz de kalman de observabilidade np×n

O(A,C)=[CCACAn1]

tem posto máximo.

[editar] Estabilidade de Sistemas Lineares

[editar] matrizes estáveis

Diremos que uma matriz ARn×n é estável, ou o sistema linear ˙x=Ax é estável quando para todo vetor xRn temos que:

limtexp(tA)x=0

(0 é assintóticamente estável em EDO)

O conceito de estabilidade não depende das mudanças de base no espaço de estados e se A é estável todas as matrizes equivalentes são estáveis. Para determinar a estabilidade de uma matriz analisamos o conjunto dos autovalores desta matriz.

σ(A)={λC:det(AλI)=0} é o conjunto dos autovalores de A ω(A)=sup{Re(λ):λσ(A)}

A matriz A é estável se e somente se ω(A)<0

[editar] Polinômios estáveis

Como vimos antes, determinamos a estabilidade de uma matriz A estudando as raizes de seu polinômio característico. De uma forma geral diremos que um polinômio

p(z)=zn+a1zn1++an

é estável se todas as raízes deste polinômio têm a parte real negativa. Os polinômios de graus 1 e 2, do tipo acima, são estáveis se e somente se os coeficientes ai forem todos positivos. Uma condição necessária para que um polinômio geral como o acima (líder=1) seja estável é que todos os coeficientes ai sejam positivos. Mas esta condição não é mais suficiente se o grau do polinômio for maior que 2.

[editar] Critério de Routh

Dado um polinômio p(z) como acima, com coeficientes reais, e supondo que a condição necessária esteja satisfeita, podemos escrever

p(ix)=U(x)+iV(x)

Note que se n é par então grau de U é n e grau de V é n1 sendo os líderes dos dois polinômios de sinais opostos.

Se se n é impar então grau de U é n1 e grau de V é n sendo os líderes dos dois polinômios de mesmo sinal.

Construimos agora uma sequência de polinômios f1,f2,,fk da seguinte forma: Se n é par então f1(x)=U(x) e f2(x)=V(x); se n for ímpar f1(x)=V(x) e f2(x)=U(x). Os outros termos da sequência são obtidos pela aplicação do algorítmo de Euclides da seguinte forma

fi1(x)=αi(x)fi(x)fi+1(x)

a sequência pára quando fk(x)=c.

O critério de Routh diz que o polinômio p(z) é estável se e somente se a sequência f1,,fk tem n+1 elementos (k=n+1) e os sinais dos líderes dos polinômios fi vão se alternando.

[editar] Matrizes de Routh

O produto de Routh de duas sequências de números reais, (αi)iN, (βi)iN e uma terceira sequência (γi)iN definida da seguinte forma:

γk=1β1det[α1αk+1β1βk+1]

Vamos denotar isso como γ=R(α,β). Com um polinômio de grau n, p(z)=zn+a1zn1++an, definimos duas sequências

σ1:1,a2,a4,,0,0,

σ2:a1,a3,,0,0,

A matriz de Routh de um polinômio, p, será uma matrix em que cada linha será uma sequência quase-nula. A primeira linha será a sequência a sequência σ1, a segunda será a sequência σ2. A késima linha será σk=R(σk2,σk1). Uma variação do critério de Routh acima é:

O polinômio p(z) com todos os coeficientes positivos é estável se e somente se a matriz de Routh tem exatamente n+1 linhas 
com o primeiro termo não nulo e todos os termos da primeira coluna são positivos.

[editar] Estabilização de sistemas lineares

Diremos que um par de matrizes (A,B) associado a um sistema linear é estabilizável se existir uma matriz KRm×n tal que a matriz A+BK fique estável.

Diremos que um par (A,B) é completamente estabilizável quando para qualquer ωR dado, existe uma matriz KRm×n tal que ω(A+BK)<ω

São equivalentes
  1. (A,B) é completamente estabilizável.
  2. (A,B) é controlável.
  3. Dado qualquer polinômio p(z)=zn+a1zn1++an, existe uma matriz KRm×n talque o polinômio característico da matriz A+BK seja exatamente p(z)

[editar] Um pouco de funções analíticas

[editar] Números complexos

Em primeiro lugar, nos interessa dois aspectos do conjunto dos números complexos: sua característica algébrica de um corpo comutativo completo, e sua característica topológica de um espaço normado

[editar] A estrutura de corpo comutativo

C={(a,b)R2}

com as seguintes operações de soma e produto:

  1. Soma(a,b)+(c,d)=(a+c,b+d)
  2. Multiplicação (a,b).(c,d)=(acbd,ad+bc)


Note que a soma é completamente compatível com a estrutura de espaço vetorial de C. Também é fácil verificar as propriedades associativas, comutativas e distributivas das operações. --Patonelli 15h25min de 12 de setembro de 2009 (UTC)

[editar] A estrutura topológica

Uma outra propriedade de C que vai nos interessar é sua estrutura topológica. Definimos no espaço a norma |z|=zˉz definindo assim uma topologia compatível com a estrutura de R2.

[editar] Integração complexa

[editar] Transformada de Laplace

Ferramentas pessoais
Espaços nominais

Variantes
Ações
Navegação
Imprimir/exportar
Ferramentas