Adopt use of gnulib for portability.
[pspp-builds.git] / TODO
1 Time-stamp: <2005-07-28 21:45:15 blp>
2
3 Get rid of need for file name canonicalization.
4
5 Use getsubopt()?
6
7 Format specifier and missing values code needs to be rewritten for lowered
8 crappiness.
9
10 CROSSTABS needs to be re-examined.
11
12 RANK, which is needed for the Wilcoxon signed-rank statistic, Mann-Whitney U,
13 Kruskal-Wallis on NPAR TESTS and for Spearman and the Johnkheere trend test (in
14 other procedures).
15
16 lex_token_representation() should take a buffer to fill.
17
18 Make valgrind --leak-check=yes --show-reachable=yes work.
19
20 Add NOT_REACHED() macro.
21
22 Add compression to casefiles.
23
24 There needs to be another layer onto the lexer, which should probably be
25 entirely rewritten anyway.  The lexer needs to read entire *commands* at a
26 time, not just a *line* at a time.  It also needs to support arbitrary putback,
27 probably by just backing up the "current position" in the command buffer.
28
29 Scratch variables should not be available for use following TEMPORARY.
30
31 Details of N OF CASES, SAMPLE, FILTER, PROCESS IF, TEMPORARY, etc., need to be
32 checked against the documentation.  See notes on these at end of file for a
33 start.
34
35 Check our results against the NIST StRD benchmark results at
36 strd.itl.nist.gov/div898/strd
37
38 In debug mode hash table code should verify that collisions are reasonably low.
39
40 Use AFM files instead of Groff font files, and include AFMs for our default
41 fonts with the distribution.
42
43 Storage of value labels on disk is inefficient.  Invent new data structure.
44
45 Add an output flag which would cause a page break if a table segment could fit
46 vertically on a page but it just happens to be positioned such that it won't.
47
48 Fix spanned joint cells, i.e., EDLEVEL on crosstabs.stat.
49
50 Cell footnotes.
51
52 PostScript driver should emit thin lines, then thick lines, to optimize time
53 and space.
54
55 New functions?  var_name_or_label(), tab_value_or_label()
56
57 Should be able to bottom-justify cells.  It'll be expensive, though, by
58 requiring an extra metrics call.
59
60 Perhaps instead of the current lines we should define the following line types:
61 null, thin, thick, double.  It might look pretty classy.
62
63 Perhaps thick table borders that are cut off by a page break should decay to
64 thin borders.  (i.e., on a thick bordered table that's longer than one page,
65 but narrow, the bottom border would be thin on the first page, and the top and
66 bottom borders on middle pages.)
67
68 Support multi-line titles on tables. (For the first page only, presumably.)
69
70 Rewrite the convert_F() function in data-out.c to be nicer code.
71
72 In addition to searching the source directory, we should search the current
73 directory (for data files).  (Yuck!)
74
75 Fix line-too-long problems in PostScript code, instead of covering them up.
76 setlinecap is *not* a proper solution.
77
78 Fix som_columns().
79
80 Has glob.c been pared down enough?
81
82 Improve interactivity of output by allowing a `commit' function for a page.
83 This will also allow for infinite-length pages.
84
85 Implement thin single lines, should be pretty easy now.
86
87 SELECT IF should be moved before other transformations whenever possible.  It
88 should only be impossible when one of the variables referred to in SELECT IF is
89 created or modified by a previous transformation.
90
91 The manual: add text, add index entries, add examples.
92
93 The inline file should be improved: There should be *real* detection of whether
94 it is used (in dfm.c:cmd_begin_data), not after-the-fact detection.
95
96 Figure out a stylesheet for messages displayed by PSPP: i.e., what quotation
97 marks around filenames, etc.
98
99 New SET subcommand: OUTPUT.  i.e., SET OUTPUT="filename" to send output to that
100 file; SET OUTPUT="filename"(APPEND) to append to that file; SET OUTPUT=DEFAULT
101 to reset everything.  There might be a better approach, though--think about it.
102
103 From Zvi Grauer <z.grauer@csuohio.edu> and <zvi@mail.ohio.net>:
104
105    1. design of experiments software, specifically Factorial, response surface
106    methodology and mixrture design.
107
108    These would be EXTREMELY USEFUL for chemists, engineeris, and anyone
109    involved in the production of chemicals or formulations.
110
111    2. Multidimensional Scaling analysis (for market analysis) -
112
113    3. Preference mapping software for market analysis
114
115    4. Hierarchical clustering (as well as partition clustering)
116
117    5. Conjoint analysis
118
119    6. Categorical data analsys ?
120
121 IDEAS
122 -----
123
124 In addition to an "infinite journal", we should keep a number of
125 individual-session journals, pspp.jnl-1 through pspp.jnl-X, renaming and
126 deleting as needed.  All of the journals should have date/time comments.
127
128 Qualifiers for variables giving type--categorical, ordinal, ...
129
130 Analysis Wizard
131
132 Consider consequences of xmalloc(), fail(), hcf() in interactive
133 use:
134 a. Can we safely just use setjmp()/longjmp()?
135 b. Will that leak memory?
136 i. I don't think so: all procedure-created memory is either
137 garbage-collected or globally-accessible.
138 ii. But you never know... esp. w/o Checker.
139 c. Is this too early to worry? too late?
140
141 Need to implement a shared buffer for funny functions that require relatively
142 large permanent transient buffers (1024 bytes or so), that is, buffers that are
143 permanent in the sense that they probably shouldn't be deallocated but are only
144 used from time to time, buffers that can't be allocated on the stack because
145 they are of variable and unpredictable but usually relatively small (usually
146 line buffers).  There are too many of these lurking around; can save a sizeable
147 amount of space at very little overhead and with very little effort by merging
148 them.
149
150 Clever multiplatform GUI idea (due partly to John Williams): write a GUI in
151 Java where each statistical procedure dialog box could be downloaded from the
152 server independently.  The statistical procedures would run on (the/a) server
153 and results would be reported through HTML tables viewed with the user's choice
154 of web browsers.  Help could be implemented through the browser as well.
155
156 HOWTOs
157 ------
158
159 MORE NOTES/IDEAS/BUGS
160 ---------------------
161
162 Sometimes very wide (or very tall) columns can occur in tables.  What is a good
163 way to truncate them?  It doesn't seem to cause problems for the ascii or
164 postscript drivers, but it's not good in the general case.  Should they be
165 split somehow?  (One way that wide columns can occur is through user request,
166 for instance through a wide PRINT request--try time-date.stat with a narrow
167 ascii page or with the postscript driver on letter size paper.)
168
169 NULs in input files break the products we're replacing: although it will input
170 them properly and display them properly as AHEX format, it truncates them in A
171 format.  Also, string-manipulation functions such as CONCAT truncate their
172 results after the first NUL.  This should simplify the result of PSPP design.
173 Perhaps those ugly a_string, b_string, ..., can all be eliminated.
174
175 From Moshe Braner <mbraner@nessie.vdh.state.vt.us>: An idea regarding MATCH
176 FILES, again getting BEYOND the state of SPSS: it always bothered me that if I
177 have a large data file and I want to match it to a small lookup table, via
178 MATCH FILES FILE= /TABLE= /BY key, I need to SORT the large file on key, do the
179 match, then (usually) re-sort back into the order I really want it.  There is
180 no reason to do this, when the lookup table is small.  Even a dumb sequential
181 search through the table, for every case in the big file, is better, in some
182 cases, than the sort.  So here's my idea: first look at the /TABLE file, if it
183 is "small enough", read it into memory, and create an index (or hash table,
184 whatever) for it.  Then read the /FILE and use the index to match to each case.
185 OTOH, if the /TABLE is too large, then do it the old way, complaining if either
186 file is not sorted on key.
187
188 ----------------------------------------------------------------------
189 Statistical procedures:
190
191 For each case we read from the input program:
192
193 1. Execute permanent transformations.  If these drop the case, stop.
194 2. N OF CASES.  If we have already written N cases, stop.
195 3. Write case to replacement active file.
196 4. Execute temporary transformations.  If these drop the case, stop.
197 5. Post-TEMPORARY N OF CASES.  If we have already analyzed N cases, stop.
198 6. FILTER, PROCESS IF.  If these drop the case, stop.
199 7. Pass case to procedure.
200
201 Ugly cases:
202
203 LAG records cases in step 3.
204
205 AGGREGATE: When output goes to an external file, this is just an ordinary
206 procedure.  When output goes to the active file, step 3 should be skipped,
207 because AGGREGATE creates its own case sink and writes to it in step 7.  Also,
208 TEMPORARY has no effect and we just cancel it.  Regardless of direction of
209 output, we should not implement AGGREGATE through a transformation because that
210 will fail to honor FILTER, PROCESS IF, N OF CASES.
211
212 ADD FILES: Essentially an input program.  It silently cancels unclosed LOOPs
213 and DO IFs.  If the active file is used for input, then runs EXECUTE (if there
214 are any transformations) and then steals vfm_source and encapsulates it.  If
215 the active file is not used for input, then it cancels all the transformations
216 and deletes the original active file.
217
218 CASESTOVARS: ???
219
220 FLIP:
221
222 MATCH FILES: Similar to AGGREGATE.  This is a procedure.  When the active file
223 is used for input, it reads the active file; otherwise, it just cancels all the
224 transformations and deletes the original active file.  Step 3 should be
225 skipped, because MATCH FILES creates its own case sink and writes to it in step
226 7.  TEMPORARY is not allowed.
227
228 MODIFY VARS:
229
230 REPEATING DATA:
231
232 SORT CASES:
233
234 UPDATE: same as ADD FILES.
235
236 VARSTOCASES: ???
237 ----------------------------------------------------------------------
238 N OF CASES
239
240   * Before TEMPORARY, limits number of cases sent to the sink.
241
242   * After TEMPORARY, limits number of cases sent to the procedure.
243
244   * Without TEMPORARY, those are the same cases, so it limits both.
245
246 SAMPLE
247
248   * Sample is just a transformation.  It has no special properties.
249
250 FILTER
251
252   * Always selects cases sent to the procedure.
253
254   * No effect on cases sent to sink.
255
256   * Before TEMPORARY, selection is permanent.  After TEMPORARY,
257     selection stops after a procedure.
258
259 PROCESS IF
260
261   * Always selects cases sent to the procedure.
262
263   * No effect on cases sent to sink.
264
265   * Always stops after a procedure.
266
267 SPLIT FILE
268
269   * Ignored by AGGREGATE.  Used when procedures write matrices.
270
271   * Always applies to the procedure.
272
273   * Before TEMPORARY, splitting is permanent.  After TEMPORARY,
274     splitting stops after a procedure.
275
276 TEMPORARY
277
278   * TEMPORARY has no effect on AGGREGATE when output goes to the active file.
279
280   * SORT CASES, ADD FILES, RENAME VARIABLES, CASESTOVARS, VARSTOCASES,
281     COMPUTE with a lag function cannot be used after TEMPORARY.
282
283   * Cannot be used in DO IF...END IF or LOOP...END LOOP.
284
285   * FLIP ignores TEMPORARY.  All transformations become permanent.
286
287   * MATCH FILES and UPDATE cannot be used after TEMPORARY if active
288     file is an input source.
289
290   * RENAME VARIABLES is invalid after TEMPORARY.
291
292   * WEIGHT, SPLIT FILE, N OF CASES, FILTER, PROCESS IF apply only to
293     the next procedure when used after TEMPORARY.
294
295 WEIGHT
296
297   * Always applies to the procedure.
298
299   * Before TEMPORARY, weighting is permanent.  After TEMPORARY,
300     weighting stops after a procedure.
301
302
303 -------------------------------------------------------------------------------
304 Local Variables:
305 mode: text
306 fill-column: 79
307 End: