3c086a98f22ce1868ac581e1cdc4bc359671483f
[pspp-builds.git] / src / math / linreg / linreg.c
1 /* PSPP - a program for statistical analysis.
2    Copyright (C) 2005 Free Software Foundation, Inc. Written by Jason H. Stover.
3
4    This program is free software: you can redistribute it and/or modify
5    it under the terms of the GNU General Public License as published by
6    the Free Software Foundation, either version 3 of the License, or
7    (at your option) any later version.
8
9    This program is distributed in the hope that it will be useful,
10    but WITHOUT ANY WARRANTY; without even the implied warranty of
11    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
12    GNU General Public License for more details.
13
14    You should have received a copy of the GNU General Public License
15    along with this program.  If not, see <http://www.gnu.org/licenses/>. */
16
17 #include <config.h>
18 #include <gsl/gsl_fit.h>
19 #include <gsl/gsl_multifit.h>
20
21 #include <gsl/gsl_blas.h>
22 #include <gsl/gsl_cblas.h>
23
24
25
26 /*
27   Find the least-squares estimate of b for the linear model:
28
29   Y = Xb + Z
30
31   where Y is an n-by-1 column vector, X is an n-by-p matrix of
32   independent variables, b is a p-by-1 vector of regression coefficients,
33   and Z is an n-by-1 normally-distributed random vector with independent
34   identically distributed components with mean 0.
35
36   This estimate is found via the sweep operator or singular-value
37   decomposition with gsl.
38
39
40   References:
41
42   1. Matrix Computations, third edition. GH Golub and CF Van Loan.
43   The Johns Hopkins University Press. 1996. ISBN 0-8018-5414-8.
44
45   2. Numerical Analysis for Statisticians. K Lange. Springer. 1999.
46   ISBN 0-387-94979-8.
47
48   3. Numerical Linear Algebra for Applications in Statistics. JE Gentle.
49   Springer. 1998. ISBN 0-387-98542-5.
50 */
51
52 #include <math/linreg/linreg.h>
53 #include <math/coefficient.h>
54 #include <gsl/gsl_errno.h>
55 #include <linreg/sweep.h>
56 /*
57   Get the mean and standard deviation of a vector
58   of doubles via a form of the Kalman filter as
59   described on page 32 of [3].
60  */
61 static int
62 linreg_mean_std (gsl_vector_const_view v, double *mp, double *sp, double *ssp)
63 {
64   size_t i;
65   double j = 0.0;
66   double d;
67   double tmp;
68   double mean;
69   double variance;
70
71   mean = gsl_vector_get (&v.vector, 0);
72   variance = 0;
73   for (i = 1; i < v.vector.size; i++)
74     {
75       j = (double) i + 1.0;
76       tmp = gsl_vector_get (&v.vector, i);
77       d = (tmp - mean) / j;
78       mean += d;
79       variance += j * (j - 1.0) * d * d;
80     }
81   *mp = mean;
82   *sp = sqrt (variance / (j - 1.0));
83   *ssp = variance;
84
85   return GSL_SUCCESS;
86 }
87
88 /*
89   Set V to contain an array of pointers to the variables
90   used in the model. V must be at least C->N_COEFFS in length.
91   The return value is the number of distinct variables found.
92  */
93 int
94 pspp_linreg_get_vars (const void *c_, const struct variable **v)
95 {
96   const pspp_linreg_cache *c = c_;
97   struct pspp_coeff *coef = NULL;
98   const struct variable *tmp;
99   int i;
100   int result = 0;
101
102   /*
103      Make sure the caller doesn't try to sneak a variable
104      into V that is not in the model.
105    */
106   for (i = 0; i < c->n_coeffs; i++)
107     {
108       v[i] = NULL;
109     }
110   /*
111      Start at c->coeff[1] to avoid the intercept.
112    */
113   v[result] = pspp_coeff_get_var (c->coeff[1], 0);
114   result = (v[result] == NULL) ? 0 : 1;
115
116   for (coef = c->coeff[2]; coef < c->coeff[c->n_coeffs]; coef++)
117     {
118       tmp = pspp_coeff_get_var (coef, 0);
119       assert (tmp != NULL);
120       /* Repeated variables are likely to bunch together, at the end
121          of the array. */
122       i = result - 1;
123       while (i >= 0 && v[i] != tmp)
124         {
125           i--;
126         }
127       if (i < 0 && result < c->n_coeffs)
128         {
129           v[result] = tmp;
130           result++;
131         }
132     }
133   return result;
134 }
135
136 /*
137   Allocate a pspp_linreg_cache and return a pointer
138   to it. n is the number of cases, p is the number of
139   independent variables.
140  */
141 pspp_linreg_cache *
142 pspp_linreg_cache_alloc (size_t n, size_t p)
143 {
144   pspp_linreg_cache *c;
145
146   c = (pspp_linreg_cache *) malloc (sizeof (pspp_linreg_cache));
147   c->depvar = NULL;
148   c->indep_means = gsl_vector_alloc (p);
149   c->indep_std = gsl_vector_alloc (p);
150   c->ssx = gsl_vector_alloc (p);        /* Sums of squares for the
151                                            independent variables.
152                                          */
153   c->ss_indeps = gsl_vector_alloc (p);  /* Sums of squares for the
154                                            model parameters.
155                                          */
156   c->cov = gsl_matrix_alloc (p + 1, p + 1);     /* Covariance matrix. */
157   c->n_obs = n;
158   c->n_indeps = p;
159   /*
160      Default settings.
161    */
162   c->method = PSPP_LINREG_SWEEP;
163   c->predict = pspp_linreg_predict;
164   c->residual = pspp_linreg_residual;   /* The procedure to compute my
165                                            residuals. */
166   c->get_vars = pspp_linreg_get_vars;   /* The procedure that returns
167                                            pointers to model
168                                            variables. */
169   c->resid = NULL;              /* The variable storing my residuals. */
170   c->pred = NULL;               /* The variable storing my predicted values. */
171
172   return c;
173 }
174
175 bool
176 pspp_linreg_cache_free (void *m)
177 {
178   int i;
179
180   pspp_linreg_cache *c = m;
181   if (c != NULL)
182     {
183       gsl_vector_free (c->indep_means);
184       gsl_vector_free (c->indep_std);
185       gsl_vector_free (c->ss_indeps);
186       gsl_matrix_free (c->cov);
187       for (i = 0; i < c->n_coeffs; i++)
188         {
189           pspp_coeff_free (c->coeff[i]);
190         }
191       free (c);
192     }
193   return true;
194 }
195
196 /*
197   Fit the linear model via least squares. All pointers passed to pspp_linreg
198   are assumed to be allocated to the correct size and initialized to the
199   values as indicated by opts.
200  */
201 int
202 pspp_linreg (const gsl_vector * Y, const gsl_matrix * X,
203              const pspp_linreg_opts * opts, pspp_linreg_cache * cache)
204 {
205   int rc;
206   gsl_matrix *design;
207   gsl_matrix_view xtx;
208   gsl_matrix_view xm;
209   gsl_matrix_view xmxtx;
210   gsl_vector_view xty;
211   gsl_vector_view xi;
212   gsl_vector_view xj;
213   gsl_vector *param_estimates;
214
215   size_t i;
216   size_t j;
217   double tmp;
218   double m;
219   double s;
220   double ss;
221
222   if (cache == NULL)
223     {
224       return GSL_EFAULT;
225     }
226   if (opts->get_depvar_mean_std)
227     {
228       linreg_mean_std (gsl_vector_const_subvector (Y, 0, Y->size),
229                        &m, &s, &ss);
230       cache->depvar_mean = m;
231       cache->depvar_std = s;
232       cache->sst = ss;
233     }
234   for (i = 0; i < cache->n_indeps; i++)
235     {
236       if (opts->get_indep_mean_std[i])
237         {
238           linreg_mean_std (gsl_matrix_const_column (X, i), &m, &s, &ss);
239           gsl_vector_set (cache->indep_means, i, m);
240           gsl_vector_set (cache->indep_std, i, s);
241           gsl_vector_set (cache->ssx, i, ss);
242         }
243     }
244   cache->dft = cache->n_obs - 1;
245   cache->dfm = cache->n_indeps;
246   cache->dfe = cache->dft - cache->dfm;
247   cache->n_coeffs = X->size2 + 1;       /* Adjust this later to allow for
248                                            regression through the origin.
249                                          */
250   if (cache->method == PSPP_LINREG_SWEEP)
251     {
252       gsl_matrix *sw;
253       /*
254          Subtract the means to improve the condition of the design
255          matrix. This requires copying X and Y. We do not divide by the
256          standard deviations of the independent variables here since doing
257          so would cause a miscalculation of the residual sums of
258          squares. Dividing by the standard deviation is done GSL's linear
259          regression functions, so if the design matrix has a poor
260          condition, use QR decomposition.
261
262          The design matrix here does not include a column for the intercept
263          (i.e., a column of 1's). If using PSPP_LINREG_QR, we need that column,
264          so design is allocated here when sweeping, or below if using QR.
265        */
266       design = gsl_matrix_alloc (X->size1, X->size2);
267       for (i = 0; i < X->size2; i++)
268         {
269           m = gsl_vector_get (cache->indep_means, i);
270           for (j = 0; j < X->size1; j++)
271             {
272               tmp = (gsl_matrix_get (X, j, i) - m);
273               gsl_matrix_set (design, j, i, tmp);
274             }
275         }
276       sw = gsl_matrix_calloc (cache->n_indeps + 1, cache->n_indeps + 1);
277       xtx = gsl_matrix_submatrix (sw, 0, 0, cache->n_indeps, cache->n_indeps);
278
279       for (i = 0; i < xtx.matrix.size1; i++)
280         {
281           tmp = gsl_vector_get (cache->ssx, i);
282           gsl_matrix_set (&(xtx.matrix), i, i, tmp);
283           xi = gsl_matrix_column (design, i);
284           for (j = (i + 1); j < xtx.matrix.size2; j++)
285             {
286               xj = gsl_matrix_column (design, j);
287               gsl_blas_ddot (&(xi.vector), &(xj.vector), &tmp);
288               gsl_matrix_set (&(xtx.matrix), i, j, tmp);
289             }
290         }
291
292       gsl_matrix_set (sw, cache->n_indeps, cache->n_indeps, cache->sst);
293       xty = gsl_matrix_column (sw, cache->n_indeps);
294       /*
295          This loop starts at 1, with i=0 outside the loop, so we can get
296          the model sum of squares due to the first independent variable.
297        */
298       xi = gsl_matrix_column (design, 0);
299       gsl_blas_ddot (&(xi.vector), Y, &tmp);
300       gsl_vector_set (&(xty.vector), 0, tmp);
301       tmp *= tmp / gsl_vector_get (cache->ssx, 0);
302       gsl_vector_set (cache->ss_indeps, 0, tmp);
303       for (i = 1; i < cache->n_indeps; i++)
304         {
305           xi = gsl_matrix_column (design, i);
306           gsl_blas_ddot (&(xi.vector), Y, &tmp);
307           gsl_vector_set (&(xty.vector), i, tmp);
308         }
309
310       /*
311          Sweep on the matrix sw, which contains XtX, XtY and YtY.
312        */
313       reg_sweep (sw);
314       cache->sse = gsl_matrix_get (sw, cache->n_indeps, cache->n_indeps);
315       cache->mse = cache->sse / cache->dfe;
316       /*
317          Get the intercept.
318        */
319       m = cache->depvar_mean;
320       for (i = 0; i < cache->n_indeps; i++)
321         {
322           tmp = gsl_matrix_get (sw, i, cache->n_indeps);
323           cache->coeff[i + 1]->estimate = tmp;
324           m -= tmp * gsl_vector_get (cache->indep_means, i);
325         }
326       /*
327          Get the covariance matrix of the parameter estimates.
328          Only the upper triangle is necessary.
329        */
330
331       /*
332          The loops below do not compute the entries related
333          to the estimated intercept.
334        */
335       for (i = 0; i < cache->n_indeps; i++)
336         for (j = i; j < cache->n_indeps; j++)
337           {
338             tmp = -1.0 * cache->mse * gsl_matrix_get (sw, i, j);
339             gsl_matrix_set (cache->cov, i + 1, j + 1, tmp);
340           }
341       /*
342          Get the covariances related to the intercept.
343        */
344       xtx = gsl_matrix_submatrix (sw, 0, 0, cache->n_indeps, cache->n_indeps);
345       xmxtx = gsl_matrix_submatrix (cache->cov, 0, 1, 1, cache->n_indeps);
346       xm = gsl_matrix_view_vector (cache->indep_means, 1, cache->n_indeps);
347       rc = gsl_blas_dsymm (CblasRight, CblasUpper, cache->mse,
348                            &xtx.matrix, &xm.matrix, 0.0, &xmxtx.matrix);
349       if (rc == GSL_SUCCESS)
350         {
351           tmp = cache->mse / cache->n_obs;
352           for (i = 1; i < 1 + cache->n_indeps; i++)
353             {
354               tmp -= gsl_matrix_get (cache->cov, 0, i)
355                 * gsl_vector_get (cache->indep_means, i - 1);
356             }
357           gsl_matrix_set (cache->cov, 0, 0, tmp);
358
359           cache->coeff[0]->estimate = m;
360         }
361       else
362         {
363           fprintf (stderr, "%s:%d:gsl_blas_dsymm: %s\n",
364                    __FILE__, __LINE__, gsl_strerror (rc));
365           exit (rc);
366         }
367       gsl_matrix_free (sw);
368     }
369   else if (cache->method == PSPP_LINREG_CONDITIONAL_INVERSE)
370     {
371       /*
372         Use the SVD of X^T X to find a conditional inverse of X^TX. If
373         the SVD is X^T X = U D V^T, then set the conditional inverse
374         to (X^T X)^c = V D^- U^T. D^- is defined as follows: If entry
375         (i, i) has value sigma_i, then entry (i, i) of D^- is 1 /
376         sigma_i if sigma_i > 0, and 0 otherwise. Then solve the normal
377         equations by setting the estimated parameter vector to 
378         (X^TX)^c X^T Y.
379        */
380     }
381   else
382     {
383       gsl_multifit_linear_workspace *wk;
384       /*
385          Use QR decomposition via GSL.
386        */
387
388       param_estimates = gsl_vector_alloc (1 + X->size2);
389       design = gsl_matrix_alloc (X->size1, 1 + X->size2);
390
391       for (j = 0; j < X->size1; j++)
392         {
393           gsl_matrix_set (design, j, 0, 1.0);
394           for (i = 0; i < X->size2; i++)
395             {
396               tmp = gsl_matrix_get (X, j, i);
397               gsl_matrix_set (design, j, i + 1, tmp);
398             }
399         }
400
401       wk = gsl_multifit_linear_alloc (design->size1, design->size2);
402       rc = gsl_multifit_linear (design, Y, param_estimates,
403                                 cache->cov, &(cache->sse), wk);
404       for (i = 0; i < cache->n_coeffs; i++)
405         {
406           cache->coeff[i]->estimate = gsl_vector_get (param_estimates, i);
407         }
408       if (rc == GSL_SUCCESS)
409         {
410           gsl_multifit_linear_free (wk);
411           gsl_vector_free (param_estimates);
412         }
413       else
414         {
415           fprintf (stderr, "%s:%d: gsl_multifit_linear returned %d\n",
416                    __FILE__, __LINE__, rc);
417         }
418     }
419
420
421   cache->ssm = cache->sst - cache->sse;
422   /*
423      Get the remaining sums of squares for the independent
424      variables.
425    */
426   m = 0;
427   for (i = 1; i < cache->n_indeps; i++)
428     {
429       j = i - 1;
430       m += gsl_vector_get (cache->ss_indeps, j);
431       tmp = cache->ssm - m;
432       gsl_vector_set (cache->ss_indeps, i, tmp);
433     }
434
435   gsl_matrix_free (design);
436   return GSL_SUCCESS;
437 }