Application des différentes méthodes numériques d’interpolations en MATLAB

October 14, 2017 | Author: Benkhada Hamane | Category: Interpolation, Numerical Analysis, Spline (Mathematics), Matlab, Mathematical Concepts
Share Embed Donate


Short Description

Les méthodes numériques d’interpolation,Application de la méthode d’interpolation en MATLAB,. Définition de l’analyse nu...

Description

République Algérienne Démocratique et Populaire ECOLE NORMALE SUPERIEURE D’ENSEIGNEMENT TECHNIQUE - ORAN -

DÉPARTEMENT DU GÉNIE ELECTRIQUE MAGISTER PREMIERE ANNEE OPTION ANALYSE ET COMMANDE DES MACHINES ELECTRIQUES MODULE DES METHODES NUMERIQUES

Application des différentes méthodes numériques d’interpolations en

Sous la direction de : Mr. BELAIDI. Réalisé par : Mr. HAMANE BEKHADA.

E-mail :[email protected] Promotion 2008-2009

1

Sommaire Introduction générale

03

Chapitre I : Les méthodes numériques d’interpolation I.1. Définition de l’analyse numérique I.1.1. Définition générale I.1.2. Définition mathématique I.1.3. Définition algorithmique I.1.4. Champ d’application I.2. Position du problème I.3. L’objectif de l’interpolation I.4. Interpolation I.4.1. Interpolation linéaire I.4.2. L’interpolation de Lagrange I.4.3. Limites de l’interpolation polynomiale I.4.4. Interpolation par des splines I.4.5. Approximation au sens des moindres carrés I.4.5.1. Droite des moindres carrés I.4.5.2. Généralisation : polynôme des moindres carrés I.4.6. La méthode de Newton I.4.6.1.Évaluation de polynôme I.4.6.2. Calcul des coefficients I.4.7. La méthode de Neville

04 04 04 04 04 04 05 05 05 06 06 07 09 09 10 10 10 11 12

Chapitre II : Application de la méthode d’interpolation en MATLAB II.1. Présentation de MATLAB II.1.1. Introduction et Historique de MATLAB II.1.2. Les particularités de MATLAB II.1.3. MATLAB peut-il s’en passer de la nécessité de Fortran ou du C II.1.4.Écriture d’un programme MATLAB II.1.5. Génération de graphique avec MATLAB II.2. Opérations sur les polynômes dans MATLAB II.2.1. Multiplication des polynômes II.2.2. Division des polynômes II.2.3. Manipulation de fonctions polynomiales dans MATLAB II.2.4 Évaluation d’un polynôme II.3. Interpolation linéaire et splines cubiques II.4. Interpolation de Lagrange II.5. Interpolation au sens des moindres carrés II.6. Interpolation par La méthode de Newton II.6.1. Calcul Polynôme de Newton II.6.2. Calcul le coefficient de Newton II.7. Interpolation par La méthode de Neville

14 14 15 15 15 16 16 17 17 18 19 20 21 23 25 25 26 27

Conclusion générale Référence Bibliographique

28 29

2

Introduction générale Depuis une vingtaines d’années, la puissance croissante des ordinateurs a permis d’aborder, puis de résoudre complètement des problèmes de plus en plus nombreux et de plus en plus difficiles, par leur complexité propre et par le nombre des informations à traiter ,l’ingénieur d’aujourd’hui ne doit pas ignorer ces techniques ,ni les situations nouvelles qu’elles permettent de considérer . De ce fait, il doit posséder une bonne formation tant en Analyse Mathématique qu’en Analyse Numérique et en Analyse Statistique, en vue d’une meilleur compréhension des phénomènes et donc d’une meilleur utilisation de ce nouveau moyen d’investigation et de décision. Les principaux problèmes rencontrés par des ingénieurs dans les domaines scientifiques et techniques ont souvent une origine dans une des grandes branches de la physique ou de la mécanique où les équations différentielles, intégral, intégro-différentielles te aux dérivées partielles jouent un rôle tout à fait fondamental. On peut citer, par exemple, en :  Génie atomique, les problèmes de transfert de chaleur et de transfert de neutrons.  Sciences des matériaux, les problèmes de diffusion.  Mécanique quantique, les problèmes de propagations des ondes (Equation de SCHRODINGER).  Génie civil, les problèmes de résistance des matériaux et de mécanique des sols.  Bâtiments, les problèmes de mécanique des structures et d’acoustique.  Automobile et Aviation, les problèmes de lissage des carrosseries et des cellules.  Electrotechnique, l’étude des réseaux complexes de distribution.  Hydraulique, les écoulements permanents et transitoires, la propagation d’ondes, les coups de bélier. Par ailleurs, dans toutes les branches d’activités industrielles et économiques, en particulier dans les génies (chimique, civil, électrique, mécanique, métallurgique,...),les ingénieurs sont amenés à résoudre des problèmes d’optimisation c’est-à-dire à choisir, entre plusieurs solutions possibles, celle qui est la meilleure .Il s’agit donc de minimiser ,ou de maximiser ,un critère (coût, profit, distance, temps, masse, énergie, rendement,…) sur l’ensemble est définit par un système d’équation et/ou d’inéquation qui traduisent les contraintes imposées aux paramètres soit par des raisons techniques, soit par des règlements. Un problème d’optimisation se rencontre sous différentes formes en particulier en programmation linéaire et non linéaire, en théorie de l’approximation, en théorie de contrôle (avec équations différentielles ou aux dérivées partielles), en programmation stochastique, en programmation en nombre entier, en programmation dynamique. [1] Le travail présenté, consiste à l’étude des méthodes numériques de l’interpolation  Le premier chapitre sera consacré à l’étude des méthodes numériques et toutes les méthodes d’interpolation.  Enfin Le deuxième chapitre, consistera en une présentation de MATLAB et la programmation des ces méthodes d’interpolation en MATL

3

Chapitre I : Les méthodes numériques d’interpolation I.1. Définition de l’analyse numérique : [1] I.1.1 .Définition générale : L’analyse numérique est le domaine des mathématiques où l’on étudie des algorithmes permettant de résoudre des problèmes de l’analyse mathématiques au moyen du calcul arithmétique. I.1.2. Définition mathématique : La mathématique de l’analyse numérique s’intéresse à l’étude des conditions d’existence et d’unicité de la solution ainsi qu’aux performances du procédé de résolution (convergence, stabilité, précision, etc.) d’un problème. I.1.3 .Définition algorithmique : La résolution algorithmique d’un problème comporte :  L’approximation d’un problème mathématique décrit en termes d’opérateurs de l’analyse (i.e. : dérivées, intégrales …) par un problème numérique définit au moyen des seuls opérations arithmétiques.  L’élaboration d’un procédé de résolution de ce problème numérique associé. I.1.4 .Champ d’application : Les méthodes numériques s’intéressent à trouver une approximation de la solution de : 1-Problème dont on ne connaît pas l’expression analytique. 2-Problème dont la solution analytique est inconnue ou inexploitable. Les méthodes numériques ont donc les caractéristiques suivantes :  Elles peuvent remplacer les méthodes analytiques quand celles-ci font défaut ou qu’elles sont de mise en œuvre trop complexe ;  Elles conduisent à une approximation de la solution, la précision pouvant généralement s’améliorer au prix d’un effort de calcul plus important.  Elles sont directement adaptables sur ordinateur, mais elles peuvent parfois échouer. Pour mon cas j’ai choisi les méthodes numériques des interpolations. I.2. Position du problème : [5] Étant donné un ensemble de doublets numériques (résultats expérimentaux, par exemple), le problème à résoudre consiste à trouver un modèle mathématique (polynomial, trigonométrique, exponentiel, etc.), et ses paramètres significatifs (c'est à dire ses coefficients), afin de réduire (on parle de régression) toute une information en une expression mathématique utilisable, c’est à dire calculable, intégrable, dérivable, etc. Lorsque les doublets sont considérés comme ‘sûrs’, au sens expérimental du mot, on tentera une interpolation qui restituera toutes les valeurs numériques des doublets là où ils se trouvent. Lorsque les doublets sont entachés d’incertitudes sur leurs déterminations, en particulier s’ils sont très nombreux, on tentera une approximation qui restituera ‘au mieux’ l’information contenue dans les doublets. On raisonne sur une fonction numérique ‘f’ à une seule variable réelle x, connue pour N valeurs. Soit n, le nombre de paramètres du modèle mathématique à déterminer.

4

(a)

(b)

Figure. I.1. (a) : Le modèle est vérifié pour tous Les doublets  interpolation Figure. I.1. (b) : Le modèle est optimisé entre tous les doublets  approximation I.3. L’objectif de l’interpolation : [5] L’objectif principal de l’interpolation est d’interpoler des données connues à partir des points discrets. Dans ce cas, la valeur de la fonction entre ces points peut être estimée. Cette méthode d’estimation peut être étendue et utilisée dans divers domaines ; à savoir la dérivation et l’intégration numérique des polynômes. I.4. Interpolation : [5] Étant donné (n+1) points {(x0,y0), (x1,y1),..., (xn,yn)}.Les (xi)0 i  n sont appelés points d’interpolation. Les (yi)0 i  n représentent les valeurs d’interpolation. Pour interpoler une fonction f, on définit ces valeurs d’interpolation comme suit : yi = f (xi),  i=0,…, n I.4.1. Interpolation linéaire : [6] L'interpolation la plus simple est l'interpolation linéaire qui s'écrit à une dimension. f(c) = pfi + (1-p) fi+1 ; 1 i N-1 Ou [xi ; xi+1] est le sous-intervalle contenant x et

P

xi  1  x x i  1  xi

Cette méthode est imparable. Non seulement elle est rapide et ne présuppose pas un espacement régulier des points, mais elle assure que f(x) est toujours situe dans le rectangle défini par les points diamétralement opposes (xi ; fi) et (xi+1 ; fi+1). Son inconvénient majeur, surtout si l'échantillonnage est « diffus", elle produit une fonction d'apparence non lissée, plutôt en ligne brisée. Ceci peut être tries gênant (en particulier, la dérivée première est discontinue).

5

I.4.2 L’interpolation de Lagrange : [4] Une solution simple, élégante et économique de ce problème est fournie par l’utilisation de la base des polynômes de Lagrange. On considère les n + 1 polynômes Li de degré ≤ n qui vérifient, pour tout i et j compris entre 0 et n, les égalités :

 Li ( xi )  1   Li ( xj )  0 Les polynômes Li sont détermines de façon unique par les n + 1 équations ci-dessus. Il est facile de montrer qu’ils forment une base de l’espace des polynômes de degré inférieur ou égal à n et qu’ils s’´ecrivent :

Li ( x ) 

n



j 0 j i

x  xj xi  xj

Exprimé dans cette nouvelle base, le polynôme d’interpolation s’´ecrit n

P( x )   yiLi ( x ) i 0

La relation ci-dessus, facile à vérifier, explique l’intérêt de la base de Lagrange. Les coefficients du polynôme d’interpolation cherché sont, dans cette base, tout simplement les valeurs yi données. Exprimé autrement, le changement de base, de la base canonique à la base de Lagrange, a transformé le système à résoudre en un système à matrice identité. Il peut montrer que l'erreur dans l'interpolation polynôme est :

f (x)  Pn

 1

(x) 

( x  x 1 )( x  x 2 )...( x  x n ) f n!

(n )

( )

Où le ξ se situe quelque part dans l'intervalle (x1, xn) ; sa valeur est autrement inconnue. Elle est instructive pour noter que plus un point de repères est de x lointain, plus qu'il contribue à l'erreur au x. I.4.3. Limites de l’interpolation polynomiale : L’interpolation polynomiale est la base de nombreuses techniques numériques, en particulier les techniques d’intégration approchée. Elle se généralise de façon naturelle aux cas de dimension supérieure à un. [4] Cependant elle a des limites :  théoriques : on n’est pas assuré de la convergence du polynôme d’interpolation vers la fonction interpolée lorsque l’on fait tendre le nombre de points d’interpolation (et donc le degré du polynôme) vers l’infini.  numériques : même dans le cas où la convergence théorique est assurée, les instabilités de calcul provenant de l’accumulation des erreurs d’arrondis, auxquelles le procédé d’interpolation polynomiale est particulièrement sensible, limite l’usage de cette technique dès que le nombre de points d’interpolation dépasse la dizaine ;  pratiques : remarquons que dans de nombreux cas, les valeurs données résultent d’expériences ou de calculs préalables. Ces valeurs sont donc approximatives. Le problème réel n’est alors plus un problème d’interpolation, mais plutôt un problème de meilleure approximation pour lequel les méthodes de moindres carrés, sont mieux adaptées. 6

I.4.4. Interpolation par des splines : Pour éviter l’inconvénient, signalé plus haut, de l’augmentation du degré du polynôme et de l’instabilité qui en résulte, lorsque le nombre de points est grand,

Figure. I.2 : Divergence de l’interpolation polynomiale pour la fonction y 

1 1  x

2

. Phénomène de

Runge .En pointillés : la fonction, en train pleins : le polynôme d’interpolation de degré 10 Construit sur 11 points régulièrement espacés. Tout en restant dans un procédé d’interpolation, on subdivise l’ensemble des points donnés en plusieurs sous-ensembles. On réalise les interpolations sur ces petits sous-ensembles, ce qui permet de se limiter à des polynômes de bas degré. Les fonctions polynomiales par morceaux obtenues sont à la base des éléments finis de Lagrange.

Figure. I.3.Une fonction affine par morceaux

Figure. I.4.Une fonction polynomiale de degré deux par morceaux Les interpolations ci-dessus produisent des fonctions globalement continues mais non continûment dérivables. Les splines cubiques d’interpolation sont des fonctions cubiques par morceaux, globalement C2. On obtient leur expression analytique, segment par segment, en imposant les conditions suivantes aux points xi d’interpolation s (xi) = yi donné pour i = 0,…, n, s′ et s′′ continues

7

Figure .I.5 .Spline cubique d’interpolation pour y 

1 1  x

2

Les inconnues du problème sont alors les dérivées secondes Ci de la spline aux points xi. On suppose la dérivée seconde de la spline affine par intervalles. On intègre deux fois en prenant en compte les conditions de continuité de la dérivée et les valeurs données yi aux points xi. On en déduit les expressions suivantes de la spline sur chaque intervalle [xi, xi+1] :

 Ci  1  ( x  xi ) 3  Ci  ( xi  1  x) 3 ( xi  1  x) ( x  xi ) Si ( x)    hi ( xi  1  x)   hi ( x  x i )  yi  yi  1   6 hi 6  hi hi hi  

Avec hi = xi+1-xi, et où les Ci sont solutions du système tridiagonal :

hi  1 hi  1  hi hi ( yi  1  yi ) ( y i  y i  1) Ci  1  Ci  Ci  1   yi  1 6 3 6 hi hi  1 Pour i = 1,…, n- 1, complété, en général, par C0 = Cn = 0. Voici par exemple (Figure .1.4) la spline cubique d’interpolation de la fonction f (x) 

1 1  x

2

Sur 10 intervalles. On observe la stabilité de cette interpolation par contraste avec le résultat obtenu (Figure. 1.2) par interpolation polynomiale. I.4.5. Approximation au sens des moindres carrés : [3] L’instabilité du procédé d’interpolation polynomiale lorsque le nombre de points augmente, d’une part, l’incertitude des résultats de mesure, d’autre part, conduisent à préférer à l’interpolation des méthodes d’approximation. Ainsi il est clair que l’expérimentateur qui relèvera 100 points quasiment alignés sera plus intéressé par la droite passant “ au mieux ” par ces 100 points plutôt que par le polynôme de degré 99 réalisant l’interpolation exacte.

8

Figure. I. 6.Droite des moindres carrés La plus célèbre et la plus utile des méthodes d’approximation est la méthode des moindres carrés. La formalisation de l’idée intuitive d’une droite représentant “au mieux” un nuage de points au sens des moindres carrés fait de la manière suivante. I.4.5.1. Droite des moindres carrés : Soient N valeurs y1, y2, ...yi, ...yN données aux N abscisses x1, x2, ...xi, ...xN . Le polynôme P de degré un : P(x) = a0 + a1x (représenté par une droite) qui réalise la meilleure approximation au sens des moindres carrés des valeurs yi données aux points xi est celui qui minimise la somme des carrés des écarts entre les yi et les P (xi), soit N

S (a 0, a1)  [ yi  (a 0  a1 xi )]2 i 1

S apparaît comme le carré de la norme euclidienne du vecteur de composantes yi -(a0 + a1xi). La minimisation de S s’interprète donc comme la recherche du vecteur le plus proche du vecteur Y RN de composantes yi, dans le sous-espace de dimension deux engendré par les vecteurs U, de composantes toutes égales à 1, et X, de composantes xi. Comme la norme utilisée est la norme euclidienne, le vecteur le plus proche est le projet´e orthogonal. On obtient ses composantes a0 et a1 en écrivant les relations d’orthogonalité :

  ( Y  a 0U  a 1 X U )     ( Y  a 0U  a 1 X X )  

N



[ yi  (a

0

 a 1 x i )] 1  0

[ yi  (a

0

 a 1 x i )] x i  0

i 1 N



i1

Ceci conduit au système dit des équations normales pour a0 et a1, coefficients de la droite des moindres carrés (ou de régression) cherchée.

  N   N   xi  i 1

  N  xi    yi   i 1  a 0    i 1  N  a1   N  2 x i y i x i       i 1  i 1  N

9

I.4.5.2. Généralisation : polynôme des moindres carrés : Il est facile de généraliser le calcul précédent au cas de la recherche du polynôme de degré ≤ m, avec m >Ri Ri = 890.5561 876.9316 742.45559

22

II.5. Interpolation au sens des moindres carrés : Dans le domaine de l’analyse numérique des données, on a souvent besoin d’établir un modèle mathématique liant plusieurs séries de données expérimentales. L’interpolation polynomiale consiste à approcher la courbe liant les deux séries de mesures par un polynôme. Les coefficients optimaux de ce polynôme sont ceux qui minimisent la variance de l’erreur d’interpolation. Ce principe est connu sous le nom de la méthode des moindres carrés. La fonction ‘polyfit’ retourne le polynôme P de degré n permettant d’approcher la courbe y=f(x) au sens des moindres carrés. Exemple 13: >> x= [1.1 2.3 3.9 5.1]; >>y= [3.887 4.276 4.651 2.117]; >>a=polyfit(x, y, length(x)-1) a= -0.2015 1.4385 -2.7477 5.4370 Ainsi, le polynôme d’interpolation de y (d’ordre length(x)-1=3) est :

P ( x )  0.2015 . x 31.4385 . x 2  2.7477 . x  5.4370 Pour déduire l’erreur entre les valeurs expérimentales et le modèle obtenu par la fonction ‘polyfit’, on dispose de la fonction ‘polyval’ qui retourne la valeur du polynôme P pour toutes les composantes du vecteur (ou de la matrice) x. Ainsi, cette fonction donne : >>yi=polyval (a, x) yi = 3.8870 4.2760 4.6510 2.1170 On remarque ici que les valeurs expérimentales de y sont bien restituées (y=yi). Dans ce cas, on a un coefficient de corrélation qui est égal à 1. Exemple 14 : Pour mieux comprendre ces fonctions prédéfinis dans MATLAB, on va simuler une courbe expérimentale par une sigmoïde à laquelle on superpose un bruit du type Gaussien. Cette courbe sera donnée par :

y 

1  0 . 05 . randn (1 .length ( x )) 1  ex

Le programme exo_3.m correspondant à l’approximation des ces données dans MATLAB par est le suivant : clc; % Effacer l'écran clear all; % Effacer des variables de l'espace de travail x=-5:0.1:5; % Intervalle de définition et de calcul de la sigmoïde % Fonction sigmoïde bruitée y=1./(1+exp(-x))+0.05*randn(1,length(x)); plot (x,y); % Tracé de la sigmoïde bruitée

23

title('Fonction sigmoïde bruitée - Polynôme d''interpolation'); xlabel('x');ylabel('y'); % Polynôme d'interpolation d'ordre 1 P=polyfit(x,y,1); % Valeurs du polynôme d'interpolation Vp=polyval(P,x); % Tracé du polynôme d'interpolation hold on; plot(x,Vp,'--'); % Calcul de l'erreur d'interpolation erreur=y-Vp; % Tracé de la courbe de l'erreur plot(x,erreur,':') grid gtext('Mesures') gtext('Erreur') gtext('Modèle') hold off % Affichage du polynôme d'interpolation disp('Polynôme d''interpolation') P Var_erreur=num2str(std(erreur).^2); disp(['La variance de l''erreur d''interpolation est : ',Var_erreur]) Après exécution du programme, on obtient à l’ordre 1 (droite affine : figure 4 ci-dessous) les résultats suivants : >> regres Polynôme d'interpolation P= 0.1309 0.5008 La variance de l'erreur d'interpolation est : 0.011277 On remarque ici que le polynôme d’interpolation d’ordre un n’est pas une bonne approximation pour ces données. En effet, un polynôme d’ordre 5 donne une meilleure approximation de la sigmoïde (Figure II.5). On change dans le ‘1’ par ‘5’ dans la fonction ‘polyfit’, et on obtient les résultats suivants : >> regres Polynôme d'interpolation P= 0.0002 -0.0000 -0.0111 0.0008 0.2326 0.4844 La variance de l'erreur d'interpolation est : 0.002279

24

Figure. II.4 : Interpolation linéaire d’ordre 1

Figure. II.5 : Interpolation par un polynôme d’ordre 5 II.6. Interpolation par La méthode de Newton : II.6.1. Calcul Polynôme de Newton : La dénotation x-coordonne le choix des points de repères par xData, et le nombre de points de repères par n, nous avons l'algorithme suivant pour calculer Pn−1 (x) : Exemple 15: Function p = newtonPoly (a, xData, x) % renvoie la valeur du polynôme de Newton dans x % a = choix de coefficient du polynôme % a doivent être calculés d'abord par le newtonCoeff. % xData = x-coordonne des points de repères. n = length (xData); p = a (n); For k = 1: n-1; p = a (n-k) + (x - xData (n-k))*p; End

25

II.6.2. Calcul le coefficient de Newton :Des calculs d’ordinateur sont mieux effectués dans une rangée unidimensionnelle une utilisation de l'algorithme suivant : Example 16: Function a = newtonCoeff (xData, yData) % renvoie la valeur du coefficient de Newton dans x % xData = x-coordonne des points de repères. % yData = y-coordonne des points de repères. n = length (xData); a = yData; For k = 2: n a(k:n) = (a(k:n) - a(k-1))./(xData(k:n) - xData(k-1)); End Au initial, a contient les y-valeurs des données, de sorte qu'il soit identique à la seconde colonne dans le tableau1.1. Chaque passage par la boucle produit des entrées dans la prochaine colonne, qui recouvrent les éléments correspondants de a. Par conséquent, a extrémités contenant vers le haut les limites diagonales du tableau.1.1 ; c.-à-d., les coefficients du polynôme. Exemple 17 : Les points de repères dans la table.II.2 se trouvent sur la parcelle de terrain de f (x) = 4.8 cos πx/20. Interpolez ces données par la méthode de Newton à x = 0, 0.5, 1.0,…, 8.0 et comparez les résultats au « exigent » des valeurs données par y = f (x). x y

0.15 4.79867

2.30 4.49013

3.15 4.2243

4.85 3.47313

Solution: xData = [0.15; 2.3; 3.15; 4.85; 6.25; 7.95]; yData = [4.79867; 4.49013; 4.22430; 3.47313;2.66674; 1.51909]; a = newtonCoeff (xData, yData); ’ x yInterp yExact’ For x = 0: 0.5: 4 y = newtonPoly (a, xData, x); yExact = 4.8*cos(pi*x/20); fprintf(’%10.5f’,x,y,yExact) fprintf(’\n’) End Le résultant est. x 0.00000 0.50000 1.00000 1.50000 2.00000 2.50000 3.00000 3.50000 4.00000

yInterp 4.80003 4.78518 4.74088 4.66736 4.56507 4.43462 4.27683 4.09267 3.88327

yExact 4.80000 4.78520 4.74090 4.66738 4.56507 4.43462 4.27683 4.09267 3.88328

26

6.25 2.66674

7.95 1.51909

II.7. Interpolation par La méthode de Neville : Cet algorithme fonctionne avec la rangée unidimensionnelle y, qui contient au initialisant les yvaleurs des données (la deuxième colonne dans le tableau 1.2). Chaque passage par la boucle calcule les limites dans la prochaine colonne de la table, qui recouvrent les précédents éléments de y à la fin de la procédure, y contient les limites diagonales de la table. La valeur de l'interpolant (évalué à x) qui passe tous les points de repères est y1, le premier l'élément de y. Exemple 18 : Function yInterp = neville (xData, yData,x) % renvoie la valeur d’interpolation dans x % xData = x-coordonne des points de repères. % yData = y-coordonne des points de repères. n = length (xData); y = yData; For k = 1: n-1 y(1:n-k) = ((x - xData(k+1:n)).*y(1:n-k)+ (xData(1:n-k) - x).*y(2:n-k+1))/(xData(1:n-k) xData(k+1:n)); End yInterp = y(1);

27

Conclusion générale

L’analyse numérique est donc une science de base dont tout ingénieur doit connaître le langage afin de :  résoudre les problèmes simple (ou complexe).  dialoguer avec les spécialistes pour les problèmes plus complexes. On trouve des différentes exemple :         

méthodes numériques

de résolution, par

la résolution d’intégral. Calcul des dérivés et des dérivés partiels. La résolution des équations algébriques. L’interpolation. La résolution des équations différentielles. Régime linéaire. Méthodes des moindres carrés. La résolution des matrices. Calcul des valeurs propres et les vecteurs propres.

Au terme de ce travail nous avons consacré notre temps à l’étude des méthodes numériques et toutes les méthodes d’interpolations et leurs programmations.  En premier lieux dans le chapitre 1 nous avons présenté l’analyse numérique et toutes les méthodes d’interpolation  Enfin de le chapitre 2 la présentation de MATLAB leurs programmations en MATLAB

28

Référence Bibliographie

[1] : Méthodes numériques Appliquées. Par A.GOURDIN et M.BOUMAHRAT. [2]: Numerical Methods in Engineering with MATLAB. By JAAN KIUSALAAS. [3]: METHODES NUMERIQUES : FONCTIONS D’UNE VARIABLE REELLE. Par JEAN-PIERRE DEDIEU. [4] : METHODES NUMERIQUES : Eléments d'un premier parcours. Par JEAN –MARC Huré.

SITES INTERNET : [5] : http://www.sciences.univnantes.fr/physique/perso/aloui/m_numeri/31inpoly/31inpoly.htm#1 [6] : http://fr.wikipedia.org/wiki/Interpolation_(math%C3%A9matiques)#Interpolation_lin.C3.A9aire

29

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF