fbuf: New data structure for buffered file I/O.
[pspp] / doc / tutorial.texi
index 1fabdea928cd64c8dda5470de0263a97505f0b7f..b76d8bf838ab1b50de389fa346cd39beead8a41d 100644 (file)
@@ -1,3 +1,12 @@
+@c PSPP - a program for statistical analysis.
+@c Copyright (C) 2017 Free Software Foundation, Inc.
+@c Permission is granted to copy, distribute and/or modify this document
+@c under the terms of the GNU Free Documentation License, Version 1.3
+@c or any later version published by the Free Software Foundation;
+@c with no Invariant Sections, no Front-Cover Texts, and no Back-Cover Texts.
+@c A copy of the license is included in the section entitled "GNU
+@c Free Documentation License".
+@c
 @alias prompt = sansserif
 
 @include tut.texi
@@ -85,6 +94,7 @@ The following sections explain how to define a dataset.
 * Reading data from a pre-prepared PSPP file::  
 * Saving data to a PSPP file.::  
 * Reading data from other sources::  
+* Exiting PSPP::
 @end menu
 
 @node Defining Variables
@@ -144,6 +154,16 @@ and @samp{(A12)} says that the variable @var{forename} is a string
 variable and that its maximum length is 12 bytes.
 The second variable's name is specified by the text @samp{height}.
 Since no format is given, this variable has the default format.
+Normally the default format expects numeric data, which should be
+entered in the locale of the operating system.
+Thus, the example is correct for English locales and other
+locales which use a period (@samp{.}) as the decimal separator.
+However if you are using a system with a locale which uses the comma (@samp{,})
+as the decimal separator, then you should in the subsequent lines substitute
+@samp{.} with @samp{,}.  
+Alternatively, you could explicitly tell @pspp{} that the @var{height} 
+variable is to be read using a period as its decimal separator by appending the
+text @samp{DOT8.3} after the word @samp{height}.
 For more information on data formats, @pxref{Input and Output Formats}.
 
 
@@ -276,6 +296,13 @@ separated text, from spreadsheets, databases or other sources.
 In these instances you should
 use the @cmd{GET DATA} command (@pxref{GET DATA}).
 
+@node Exiting PSPP
+@subsection Exiting PSPP
+
+Use the @cmd{FINISH} command to exit PSPP:
+@example
+@prompt{PSPP>} finish.
+@end example
   
 @node Data Screening and Transformation
 @section Data Screening and Transformation
@@ -474,14 +501,14 @@ A sensible check to perform on survey data is the calculation of
 reliability.
 This gives the statistician some confidence that the questionnaires have been 
 completed thoughtfully.
-If you examine the labels of variables @var{v1},  @var{v3} and @var{v5},
+If you examine the labels of variables @var{v1},  @var{v3} and @var{v4},
 you will notice that they ask very similar questions.
 One would therefore expect the values of these variables (after recoding) 
 to closely follow one another, and we can test that with the @cmd{RELIABILITY} 
 command (@pxref{RELIABILITY}).
 @ref{reliability} shows a @pspp{} session where the user (after recoding
 negatively scaled variables) requests reliability statistics for
-@var{v1}, @var{v3} and @var{v5}.
+@var{v1}, @var{v3} and @var{v4}.
 
 @float Example, reliability
 @cartouche
@@ -491,7 +518,7 @@ negatively scaled variables) requests reliability statistics for
 @prompt{PSPP>} * recode negatively worded questions.
 @prompt{PSPP>} compute v3 = 6 - v3.
 @prompt{PSPP>} compute v5 = 6 - v5.
-@prompt{PSPP>} reliability v1, v3, v5.
+@prompt{PSPP>} reliability v1, v3, v4.
 @end example
 
 Output (dictionary information omitted for clarity):
@@ -509,19 +536,19 @@ Output (dictionary information omitted for clarity):
 #================#==========#
 #Cronbach's Alpha#N of Items#
 #================#==========#
-#             .86#         3#
+#             .81#         3#
 #================#==========#
 @end example
 @end cartouche
 @caption{Recoding negatively scaled variables, and testing for
 reliability with the @cmd{RELIABILITY} command. The Cronbach Alpha
 coefficient suggests a high degree of reliability among variables
-@var{v1}, @var{v2} and @var{v5}.}
+@var{v1}, @var{v3} and @var{v4}.}
 @end float
 
 As a rule of thumb, many statisticians consider a value of Cronbach's Alpha of 
 0.7 or higher to indicate reliable data.
-Here, the value is 0.86 so the data and the recoding that we performed 
+Here, the value is 0.81 so the data and the recoding that we performed 
 are vindicated.
 
 
@@ -700,18 +727,19 @@ then an alternative calculation is necessary.
 For the @var{height} variable, the output shows the significance of the 
 Levene test to be 0.33 which means there is a 
 33% probability that the  
-Levene test produces this outcome when the variances are unequal.
-Such a probability is too high
-to assume that the variances are equal so the row
-for unequal variances should be used.
+Levene test produces this outcome when the variances are equal.
+Had the significance been less than 0.05, then it would have been unsafe to assume that
+the variances were equal.
+However, because the value is higher than 0.05 the homogeneity of variances assumption
+is safe and the ``Equal Variances'' row (the more powerful test) can be used.
 Examining this row, the two tailed significance for the @var{height} t-test 
 is less than 0.05, so it is safe to reject the null hypothesis and conclude
 that the mean heights of males and females are unequal.
 
 For the @var{temperature} variable, the significance of the Levene test 
-is 0.58 so again, it is unsafe to use the row for equal variances.
-The unequal variances row indicates that the two tailed significance for
-@var{temperature} is 0.19.  Since this is greater than 0.05 we must reject
+is 0.58 so again, it is safe to use the row for equal variances.
+The equal variances row indicates that the two tailed significance for
+@var{temperature} is 0.20.  Since this is greater than 0.05 we must reject
 the null hypothesis and conclude that there is insufficient evidence to 
 suggest that the body temperature of male and female persons are different.