Programma di Geometria  (AA 11-12) (12 CFU)

 

Richiami su insiemi e operazioni su insiemi. Prodotto cartesiano di due insiemi. Corrispondenze, Relazioni. Funzioni o applicazioni. Applicazioni iniettive, suriettive, biiettive.

Relazioni di equivalenza. Partizione di un insieme. Congruenza modulo n. Definizione astratta di spazio vettoriale. Otto assiomi dello spazio vettoriale.

Rn come spazio vettoriale. Combinazione lineare. Sottospazio vettoriale di Rn. Sottospazio generato da alcuni vettori. Dipendenza e indipendenza lineare.  Basi di un sottospazio vettoriale. Dimensione di un sottospazio.

Espressione unica di un vettore in termini di vettore di una base. Base canonica di Rn. Prodotto scalare di Rn. e sue proprietà.  Matrici. Addizione di matrici. Moltiplicazione per uno scalare. Insieme M(mxn, R ) come spazio vettoriale. Moltiplicazione riga per colonna di matrici. Proprietà della moltiplicazione di matrici. Conseguenze della non commutatività. Definizione di matrici idempotenti e nilpotenti. Matrici a blocchi. Interpretazione di un sistema di equazioni lineari mediante moltiplicazione di matrici. Moltiplicazione di una matrice A di ordine  mxn per una B di ordine nx1 interpretata come combinazione lineare delle colonne di A.

 Trasposta di una matrice. Definizione di matrice simmetrica. Metodi elementari di risoluzione di sistemi di equazioni lineari. Definizione di determinante mediante i prodotti competenti e le permutazioni. Casi particolari 2x2 e 3x3. Regola di Sarrus. Sviluppo secondo Laplace. Primo teorema di Laplace (senza dim). Matrici diagonali. Triangolari superiori, inferiori. Diagonale a blocchi.

         Proprietà dei determinanti. Invertibilità di una matrice e determinanti. Aggiunta di una matrice. Formula della matrice inversa. Soluzione di un sistema mediante la regola di Cramer.

         Operazioni elementari sulle equazioni di un sistema o sulle righe di una matrice. Matrice completa. Forma a gradini di una matrice. Forma a gradini ridotta. Pivot. Rango per pivot di una matrice. Metodo di eliminazione di Gauss o di Gauss-Jordan per la risoluzione dei sistemi lineari.

         Minori di una matrice. Rango per minori di una matrice. Estensione del metodo di Cramer alla soluzione di sistemi lineari non necessariamente quadrati. Teorema degli orlati (senza dim). Teorema di Rouché-Capelli.

         Algoritmo di inversione: calcolo dell’inversa di una matrice mediante la riduzione di Gauss-Jordan. Sistemi lineari omogenei (SLO). Autosoluzioni. Condizioni per l’esistenza di autosoluzioni. L’insieme delle soluzioni di un SLO come sottospazio vettoriale di Rn.

         Confronto tra l’algoritmo di Gauss e l’uso del determinante. Inversa di un prodotto di matrici invertibili.

         Teorema sulle condizioni equivalenti di invertibilità di una matrice.  Matrici  invertibili e matrici elementari.

         Dimostrazione del teorema di Binet. Dimostrazione della condizione di invertibilità legata al determinante. Dimostrazione della regola di Cramer.

         Introduzione alla diagonalizzazione di matrici attraverso esempi. Definizione di autovalore, autovettore, autospazio, polinomio caratteristico, equazione caratteristica. Esempio nel caso di matrici 2x2. Applicazione alla successione di Fibonacci.

         Esempi di diagonalizzazione di matrici. Caso 3x3. Molteplicità algebrica e molteplicità geometrica.  Polinomio caratteristico e sua relazione con la traccia e il determinante di una matrice.  Legame tra il rango della matrice e la dimensione dell’autospazio.

Caso di matrici in cui la molteplicità algebrica è diversa dalla molteplicità geometrica. Condizioni necessarie e sufficienti per la diagonalizzazione. Diagonalizzazione di una matrice con autovalori distinti. Teorema di Cayley-Hamilton (senza dim.) e qualche sua conseguenza.

Spazio delle righe e spazio delle colonne di una matrice. Rango per righe e rango per colonne. Equivalenza dei differenti concetti di rango (senza dim.). Successioni di Fibonacci come esempio di spazio vettoriale di dimensione 2 e sue conseguenze. Qualche richiamo sui numeri complessi.

Spazio vettoriale V2. Dipendenza e indipendenza lineare in V2. Interpretazione geometrica dell’indipendenza. Coordinate di un vettore di V2 rispetto ad una base. Base ortonormale e sistema cartesiano ortogonale di riferimento RC(O,i,j). Identificazione di V2 con R2. Prodotto scalare su V2 e su R2.

Condizione di parallelismo tra due vettori del piano. Espressione della lunghezza di un vettore tramite il prodotto scalare. Distanza tra due punti. Espressione dell’angolo compreso tra due vettori mediante il prodotto scalare.  Area di un triangolo: formula del determinante. Condizione di allineamento di tre punti. Equazione cartesiana di una retta. Equazione parametrica di una retta. Relazione tra i parametri direttori e il coefficiente angolare.

Componente ortogonale di un vettore secondo una direzione. Proiezione ortogonale e coefficiente di Fourier. Condizione di parallelismo tra due vettori del piano.

Parametri direttori. Coseni direttori definizione e interpretazione geometrica. Condizione di parallelismo e di perpendicolarità tra due rette. Formula della distanza punto-retta.

Definizione di applicazione lineare tra due spazi vettoriali. Un’applicazione lineare è determinata dai valori assunti su una base. Qualche esempio importante di operatore lineare su   V2 : rotazione e proiezione ortogonale. Matrici che rappresentano l’operatore di rotazione e l’operatore di proiezione ortogonale. Definizione di matrice ortogonale.

Formule per un cambiamento di riferimento cartesiano ortogonale. Basi equiverse e contraverse.

Introduzione alle sezioni coniche. Definizione di ellisse, iperbole e parabola come luoghi geometrici. Forma canonica dell’equazione dell’ellisse, dell’iperbole, della parabola. Eccentricità.

Coniche degeneri e non degeneri. Riconoscimento di una conica tramite cambiamento di riferimento. Invarianti.

Spazio vettoriale V3 e identificazione con R3  tramite una base ordinata. Base ortonormale.

Tre vettori di V3 sono linearmente dipendenti se e solo se sono complanari. Basi equiverse e contraverse. Prodotto vettoriale. Condizione di complanarità di quattro punti ed equazione cartesiana di un piano.

Proprietà del prodotto vettoriale. Significato geometrico del modulo del prodotto vettoriale.

Distanza tra due rette parallele. Equazioni parametriche di una retta nello spazio. Equazioni cartesiane di una retta. Volume di un parallelepipedo. Significato geometrico dei parametri di giacitura di un piano. Condizioni di parallelismo e di perpendicolarità tra due piani. Fascio proprio e fascio improprio di piani.

Formule per i parametri direttori di una retta a partire dalle equazioni cartesiane. Condizioni di parallelismo e di perpendicolarità retta-piano. Mutue posizioni di due rette nello spazio. Condizione analitica di complanarità tra due rette. Distanza tra due rette parallele. Distanza punto-piano. Sfera.

Concetto di gruppo e di anello mediante esempi. Gruppi finiti e infiniti. Gruppo diedrale. Gruppo delle permutazioni. Gruppo delle classi resto modulo n. Gruppi di matrici. Anelli Z e Zn

Campi. Esempi di campi finiti. Gruppo dei quaternioni. Concetto di congruenza e criteri di divisibilità.

Concetto generale di spazio vettoriale su un campo qualsiasi. Esempi: polinomi in una variabile, matrici, funzioni continue, codici lineari.

Quattro spazi importanti legati ad una matrice A: lo spazio delle righe, lo spazio delle colonne, l’annullatore e l’immagine.

Relazione con i relativi spazi della forma a scala per righe di A. Teorema del Rango: la dimensione dello spazio delle colonne di A è uguale alla dimensione dello spazio delle righe di A. Determinazione di una base di C(A), R(A), null(A), im(A). Dimostrazione che im(A)=C(A).

Dimensione di uno spazio vettoriale. Teorema fondamentale. Teorema di Invarianza. Lemma di Indipendenza. Teorema di esistenza delle basi.

Trasformazioni lineari tra due spazi vettoriali qualunque. Esempi. Endomorfismi o Operatori. Proprietà delle trasformazioni lineari. Estensione di una applicazione per linearità. Equazioni di una trasformazione lineare da Rn  a Rm  . Nucleo e immagine di una trasformazione lineare. Relazione con l’annullatore e l’immagine di una matrice. Una trasformazione lineare è iniettiva se e solo se il suo nucleo è nullo.

Trasformazione lineare indotta da una matrice e matrice che rappresenta una trasformazione lineare. Esempi.

Una generalizzazione del teorema di Rouché-Capelli: il teorema delle dimensioni. (Dimostrazione facoltativa, vedi ad esempio [2], Teorema 5.3.23.)  Isomorfismo. Isomorfismo legato ad una base ordinata. Ogni spazio vettoriale di dimensione finita è isomorfo ad  Rn  .    

Matrice di una trasformazione lineare.  Esempi. Matrice dell’applicazione identica. Definizione di matrici simili e dimostrazione di alcune loro proprietà.

Relazione di similitudine tra due matrici che rappresentano lo stesso operatore.  Relazione tra la matrice di un operatore e dell’operatore inverso. Matrice della composizione di due operatori.

Definizione di spazio vettoriale euclideo. Prodotto scalare astratto. Esempi.

Esempi di forme bilineari simmetriche e definite positive o non degeneri su R2  ottenute tramite matrici quadrate simmetriche e definite positive o invertibili.   Un insieme ortogonale di vettori non nulli è necessariamente indipendente. Definizione di base ortogonale e base ortonormale. Espressione di un vettore in una base ortogonale tramite i coefficienti di Fourier. Esistenza di una base ortogonale: procedimento di ortogonalizzazione di Gram-Schmidt.

Dimostrazione della disuguaglianza di Cauchy-Schwarz. Disuguaglianza Triangolare. Definizione di distanza in uno spazio euclideo. Formula dello sviluppo di Fourier per la proiezione ortogonale su un sottospazio.

Complemento ortogonale di un sottospazio vettoriale. Il complemento ortogonale dello spazio delle colonne di una matrice A è l’annullatore di AT. Teorema di approssimazione. Applicazione del teorema di approssimazione allo studio di soluzioni approssimate di un sistema incompatibile.

Autovettori relativi ad autovalori distinti sono linearmente indipendenti. Definizione di matrice ortogonalmente diagonalizzabile. Proprietà delle matrici simmetriche.

Diagonalizzazione di matrici simmetriche. Condizioni necessarie e sufficienti affinché una matrice sia ortogonale. Teorema degli Assi Principali con dimostrazione.  Applicazione alla diagonalizzazione delle forme quadratiche. Riconoscimento di una conica a partire dagli autovalori della relativa forma quadratica. Forma quadratica definita positiva. Matrice definita positiva. Criterio dei minori principali (senza dimostrazione).

 

Bibliografia

 

  1. S. Capparelli – A. Del Fra: Geometria, Esculapio, 2010
  2. W. Keith Nicholson, Algebra Lineare, dalle applicazioni alla teoria, McGraw-Hill 2002
  3. P. Maroscia: Geometria e Algebra Lineare, Zanichelli, 2002
  4. S. Capparelli, A. Del Fra : Esercizi di Geometria, Esculapio, 2012
  5. M. Bordoni: Geometria Analitica, Esculapio, 2001