GLM: Update logic for choosing types of sums of squares
[pspp-builds.git] / src / language / stats / glm.c
index 6401defdeac8774daaf43d906819fa0d27e1650c..28f61bc68bc7dd21e6f931aea8bf631d069eb1d7 100644 (file)
@@ -33,6 +33,7 @@
 #include "language/lexer/lexer.h"
 #include "language/lexer/value-parser.h"
 #include "language/lexer/variable-parser.h"
+#include "libpspp/assertion.h"
 #include "libpspp/ll.h"
 #include "libpspp/message.h"
 #include "libpspp/misc.h"
@@ -65,9 +66,12 @@ struct glm_spec
 
   const struct dictionary *dict;
 
+  int ss_type;
   bool intercept;
 
   double alpha;
+
+  bool dump_coding;
 };
 
 struct glm_workspace
@@ -124,8 +128,6 @@ static void run_glm (struct glm_spec *cmd, struct casereader *input,
 
 static bool parse_design_spec (struct lexer *lexer, struct glm_spec *glm);
 
-/* Define to 1 if the /DESIGN subcommand should not be optional */
-#define DESIGN_MANDATORY 1
 
 int
 cmd_glm (struct lexer *lexer, struct dataset *ds)
@@ -145,6 +147,8 @@ cmd_glm (struct lexer *lexer, struct dataset *ds)
   glm.intercept = true;
   glm.wv = dict_get_weight (glm.dict);
   glm.alpha = 0.05;
+  glm.dump_coding = false;
+  glm.ss_type = 3;
 
   if (!parse_variables_const (lexer, glm.dict,
                              &glm.dep_vars, &glm.n_dep_vars,
@@ -262,9 +266,10 @@ cmd_glm (struct lexer *lexer, struct dataset *ds)
              goto error;
            }
 
-         if (3 != lex_integer (lexer))
+         glm.ss_type = lex_integer (lexer);
+         if (1 != glm.ss_type  && 2 != glm.ss_type )
            {
-             msg (ME, _("Only type 3 sum of squares are currently implemented"));
+             msg (ME, _("Only types 1 & 2 sum of squares are currently implemented"));
              goto error;
            }
 
@@ -283,18 +288,15 @@ cmd_glm (struct lexer *lexer, struct dataset *ds)
          if (! parse_design_spec (lexer, &glm))
            goto error;
 
-#if DESIGN_MANDATORY
-         if ( glm.n_interactions == 0)
-           {
-             msg (ME, _("One or more design  variables must be given"));
-             goto error;
-           }
-         
-         design = true;
-#else
          if (glm.n_interactions > 0)
            design = true;
-#endif
+       }
+      else if (lex_match_id (lexer, "SHOWCODES"))
+       /* Undocumented debug option */
+       {
+         lex_match (lexer, T_EQUALS);
+
+         glm.dump_coding = true;
        }
       else
        {
@@ -305,11 +307,6 @@ cmd_glm (struct lexer *lexer, struct dataset *ds)
 
   if ( ! design )
     {
-#if DESIGN_MANDATORY
-      lex_error (lexer, _("/DESIGN is mandatory in GLM"));
-      goto error;
-#endif
-
       design_full (&glm);
     }
 
@@ -351,72 +348,96 @@ error:
 static void get_ssq (struct covariance *, gsl_vector *,
                     const struct glm_spec *);
 
-static bool
-not_dropped (size_t j, const size_t *dropped, size_t n_dropped)
+static inline bool
+not_dropped (size_t j, const bool *ff)
 {
-  size_t i;
+  return ! ff[j];
+}
 
-  for (i = 0; i < n_dropped; i++)
+static void
+fill_submatrix (const gsl_matrix * cov, gsl_matrix * submatrix, bool *dropped_f)
+{
+  size_t i;
+  size_t j;
+  size_t n = 0;
+  size_t m = 0;
+  
+  for (i = 0; i < cov->size1; i++)
     {
-      if (j == dropped[i])
-       return false;
+      if (not_dropped (i, dropped_f))
+       {         
+         m = 0;
+         for (j = 0; j < cov->size2; j++)
+           {
+             if (not_dropped (j, dropped_f))
+               {
+                 gsl_matrix_set (submatrix, n, m,
+                                 gsl_matrix_get (cov, i, j));
+                 m++;
+               }       
+           }
+         n++;
+       }
     }
-  return true;
 }
-
+             
 static void
 get_ssq (struct covariance *cov, gsl_vector *ssq, const struct glm_spec *cmd)
 {
   gsl_matrix *cm = covariance_calculate_unnormalized (cov);
   size_t i;
-  size_t j;
   size_t k;
-  size_t *dropped = xcalloc (covariance_dim (cov), sizeof (*dropped));
+  bool *model_dropped = xcalloc (covariance_dim (cov), sizeof (*model_dropped));
+  bool *submodel_dropped = xcalloc (covariance_dim (cov), sizeof (*submodel_dropped));
   const struct categoricals *cats = covariance_get_categoricals (cov);
 
   for (k = 0; k < cmd->n_interactions; k++)
     {
-      size_t n = 0;
-      size_t m = 0;
-      gsl_matrix *small_cov = NULL;
-      size_t n_dropped = 0;
+      gsl_matrix *model_cov = NULL;
+      gsl_matrix *submodel_cov = NULL;
+      size_t n_dropped_model = 0;
+      size_t n_dropped_submodel = 0;
       for (i = cmd->n_dep_vars; i < covariance_dim (cov); i++)
        {
-         if (categoricals_get_interaction_by_subscript (cats, i - cmd->n_dep_vars)
-             == cmd->interactions[k])
-           {
-             assert (n_dropped < covariance_dim (cov));
-             dropped[n_dropped++] = i;
-           }
-       }
-      small_cov =
-       gsl_matrix_alloc (cm->size1 - n_dropped, cm->size2 - n_dropped);
-      gsl_matrix_set (small_cov, 0, 0, gsl_matrix_get (cm, 0, 0));
-      for (i = 0; i < cm->size1; i++)
-       {
-         if (not_dropped (i, dropped, n_dropped))
+         const struct interaction * x = 
+           categoricals_get_interaction_by_subscript (cats, i - cmd->n_dep_vars);
+
+         model_dropped[i] = false;
+         submodel_dropped[i] = false;
+         if (interaction_is_subset (cmd->interactions [k], x))
            {
-             m = 0;
-             for (j = 0; j < cm->size2; j++)
+             assert (n_dropped_submodel < covariance_dim (cov));
+             n_dropped_submodel++;
+              submodel_dropped[i] = true;
+
+             if ( cmd->interactions [k]->n_vars < x->n_vars)
                {
-                 if (not_dropped (j, dropped, n_dropped))
-                   {
-                     gsl_matrix_set (small_cov, n, m,
-                                     gsl_matrix_get (cm, i, j));
-                     m++;
-                   }
+                 assert (n_dropped_model < covariance_dim (cov));
+                 n_dropped_model++;
+                 model_dropped[i] = true;
                }
-             n++;
            }
        }
-      reg_sweep (small_cov, 0);
+
+      model_cov = gsl_matrix_alloc (cm->size1 - n_dropped_model, cm->size2 - n_dropped_model);
+      submodel_cov = gsl_matrix_alloc (cm->size1 - n_dropped_submodel, cm->size2 - n_dropped_submodel);
+
+      fill_submatrix (cm, model_cov,    model_dropped);
+      fill_submatrix (cm, submodel_cov, submodel_dropped);
+
+      reg_sweep (model_cov, 0);
+      reg_sweep (submodel_cov, 0);
+
       gsl_vector_set (ssq, k + 1,
-                     gsl_matrix_get (small_cov, 0, 0)
-                     - gsl_vector_get (ssq, 0));
-      gsl_matrix_free (small_cov);
+                     gsl_matrix_get (submodel_cov, 0, 0) - gsl_matrix_get (model_cov, 0, 0)
+                     );
+
+      gsl_matrix_free (model_cov);
+      gsl_matrix_free (submodel_cov);
     }
 
-  free (dropped);
+  free (model_dropped);
+  free (submodel_dropped);
   gsl_matrix_free (cm);
 }
 
@@ -470,7 +491,12 @@ run_glm (struct glm_spec *cmd, struct casereader *input,
     }
   casereader_destroy (reader);
 
-  for (reader = input;
+  if (cmd->dump_coding)
+    reader = casereader_clone (input);
+  else
+    reader = input;
+
+  for (;
        (c = casereader_read (reader)) != NULL; case_unref (c))
     {
       double weight = dict_get_case_weight (dict, c, &warn_bad_weight);
@@ -483,6 +509,21 @@ run_glm (struct glm_spec *cmd, struct casereader *input,
     }
   casereader_destroy (reader);
 
+
+  if (cmd->dump_coding)
+    {
+      struct tab_table *t =
+       covariance_dump_enc_header (cov,
+                                   1 + casereader_count_cases (input));
+      for (reader = input;
+          (c = casereader_read (reader)) != NULL; case_unref (c))
+       {
+         covariance_dump_enc (cov, c, t);
+       }
+      casereader_destroy (reader);
+      tab_submit (t);
+    }
+
   {
     gsl_matrix *cm = covariance_calculate_unnormalized (cov);
 
@@ -497,7 +538,18 @@ run_glm (struct glm_spec *cmd, struct casereader *input,
     */
     ws.ssq = gsl_vector_alloc (cm->size1);
     gsl_vector_set (ws.ssq, 0, gsl_matrix_get (cm, 0, 0));
-    get_ssq (cov, ws.ssq, cmd);
+    switch (cmd->ss_type)
+      {
+      case 1:
+       break;
+      case 2:
+      case 3:
+       get_ssq (cov, ws.ssq, cmd);
+       break;
+      default:
+       NOT_REACHED ();
+       break;
+      }
     //    dump_matrix (cm);
 
     gsl_matrix_free (cm);
@@ -514,6 +566,15 @@ run_glm (struct glm_spec *cmd, struct casereader *input,
   taint_destroy (taint);
 }
 
+static const char *roman[] = 
+  {
+    "", /* The Romans had no concept of zero */
+    "I",
+    "II",
+    "III",
+    "IV"
+  };
+
 static void
 output_glm (const struct glm_spec *cmd, const struct glm_workspace *ws)
 {
@@ -535,6 +596,7 @@ output_glm (const struct glm_spec *cmd, const struct glm_workspace *ws)
   if (cmd->intercept)
     nr++;
 
+  msg (MW, "GLM is experimental.  Do not rely on these results.");
   t = tab_create (nc, nr);
   tab_title (t, _("Tests of Between-Subjects Effects"));
 
@@ -549,7 +611,8 @@ output_glm (const struct glm_spec *cmd, const struct glm_workspace *ws)
 
   /* TRANSLATORS: The parameter is a roman numeral */
   tab_text_format (t, 1, 0, TAB_CENTER | TAT_TITLE,
-                  _("Type %s Sum of Squares"), "III");
+                  _("Type %s Sum of Squares"), 
+                  roman[cmd->ss_type]);
   tab_text (t, 2, 0, TAB_CENTER | TAT_TITLE, _("df"));
   tab_text (t, 3, 0, TAB_CENTER | TAT_TITLE, _("Mean Square"));
   tab_text (t, 4, 0, TAB_CENTER | TAT_TITLE, _("F"));
@@ -723,7 +786,6 @@ parse_design_interaction (struct lexer *lexer, struct glm_spec *glm, struct inte
 
   if ( lex_match (lexer, T_ASTERISK) || lex_match (lexer, T_BY))
     {
-      lex_error (lexer, "Interactions are not yet implemented"); return false;
       return parse_design_interaction (lexer, glm, iact);
     }