lexer: Fix negative 'n0' and 'n1' in lex_source_contains_macro_call().
[pspp] / src / language / lexer / lexer.c
index bc031189fbcd6c4b56562d9446de4ab846b10d50..7d40ce1cd50a39ad70baabc9547855d74d5caada 100644 (file)
@@ -28,7 +28,6 @@
 #include <unictype.h>
 #include <unistd.h>
 #include <unistr.h>
-#include <uniwidth.h>
 
 #include "language/command.h"
 #include "language/lexer/macro.h"
@@ -39,6 +38,7 @@
 #include "libpspp/cast.h"
 #include "libpspp/deque.h"
 #include "libpspp/i18n.h"
+#include "libpspp/intern.h"
 #include "libpspp/ll.h"
 #include "libpspp/message.h"
 #include "libpspp/misc.h"
@@ -66,13 +66,9 @@ struct lex_token
        location of the token in terms of the lex_source's buffer.
 
        For a token produced through macro expansion, this is the entire macro
-       call.
-
-       src->tail <= line_pos <= token_pos <= src->head. */
-    size_t token_pos;           /* Start of token. */
+       call. */
+    size_t token_pos;           /* Offset into src->buffer of token start. */
     size_t token_len;           /* Length of source for token in bytes. */
-    size_t line_pos;            /* Start of line containing token_pos. */
-    int first_line;             /* Line number at token_pos. */
 
     /* For a token obtained through macro expansion, this is just this token.
 
@@ -84,8 +80,20 @@ struct lex_token
     size_t *ref_cnt;        /* Number of lex_tokens that refer to macro_rep. */
   };
 
+static struct msg_point lex_token_start_point (const struct lex_source *,
+                                               const struct lex_token *);
+static struct msg_point lex_token_end_point (const struct lex_source *,
+                                             const struct lex_token *);
+
+/* Source offset of the last byte in TOKEN. */
+static size_t
+lex_token_end (const struct lex_token *token)
+{
+  return token->token_pos + MAX (token->token_len, 1) - 1;
+}
+
 static void
-lex_token_uninit (struct lex_token *t)
+lex_token_destroy (struct lex_token *t)
 {
   token_uninit (&t->token);
   if (t->ref_cnt)
@@ -97,6 +105,110 @@ lex_token_uninit (struct lex_token *t)
           free (t->ref_cnt);
         }
     }
+  free (t);
+}
+\f
+/* A deque of lex_tokens that comprises one stage in the token pipeline in a
+   lex_source. */
+struct lex_stage
+  {
+    struct deque deque;
+    struct lex_token **tokens;
+  };
+
+static void lex_stage_clear (struct lex_stage *);
+static void lex_stage_uninit (struct lex_stage *);
+
+static size_t lex_stage_count (const struct lex_stage *);
+static bool lex_stage_is_empty (const struct lex_stage *);
+
+static struct lex_token *lex_stage_first (struct lex_stage *);
+static struct lex_token *lex_stage_nth (struct lex_stage *, size_t ofs);
+
+static void lex_stage_push_last (struct lex_stage *, struct lex_token *);
+static void lex_stage_pop_first (struct lex_stage *);
+
+static void lex_stage_shift (struct lex_stage *dst, struct lex_stage *src,
+                             size_t n);
+
+/* Deletes all the tokens from STAGE. */
+static void
+lex_stage_clear (struct lex_stage *stage)
+{
+  while (!deque_is_empty (&stage->deque))
+    lex_stage_pop_first (stage);
+}
+
+/* Deletes all the tokens from STAGE and frees storage for the deque. */
+static void
+lex_stage_uninit (struct lex_stage *stage)
+{
+  lex_stage_clear (stage);
+  free (stage->tokens);
+}
+
+/* Returns true if STAGE contains no tokens, otherwise false. */
+static bool
+lex_stage_is_empty (const struct lex_stage *stage)
+{
+  return deque_is_empty (&stage->deque);
+}
+
+/* Returns the number of tokens in STAGE. */
+static size_t
+lex_stage_count (const struct lex_stage *stage)
+{
+  return deque_count (&stage->deque);
+}
+
+/* Returns the first token in STAGE, which must be nonempty.
+   The first token is the one accessed with the least lookahead. */
+static struct lex_token *
+lex_stage_first (struct lex_stage *stage)
+{
+  return lex_stage_nth (stage, 0);
+}
+
+/* Returns the token the given INDEX in STAGE.  The first token (with the least
+   lookahead) is 0, the second token is 1, and so on.  There must be at least
+   INDEX + 1 tokens in STAGE. */
+static struct lex_token *
+lex_stage_nth (struct lex_stage *stage, size_t index)
+{
+  return stage->tokens[deque_back (&stage->deque, index)];
+}
+
+/* Adds TOKEN so that it becomes the last token in STAGE. */
+static void
+lex_stage_push_last (struct lex_stage *stage, struct lex_token *token)
+{
+  if (deque_is_full (&stage->deque))
+    stage->tokens = deque_expand (&stage->deque, stage->tokens,
+                                  sizeof *stage->tokens);
+  stage->tokens[deque_push_front (&stage->deque)] = token;
+}
+
+/* Removes and returns the first token from STAGE. */
+static struct lex_token *
+lex_stage_take_first (struct lex_stage *stage)
+{
+  return stage->tokens[deque_pop_back (&stage->deque)];
+}
+
+/* Removes the first token from STAGE and uninitializes it. */
+static void
+lex_stage_pop_first (struct lex_stage *stage)
+{
+  lex_token_destroy (lex_stage_take_first (stage));
+}
+
+/* Removes the first N tokens from SRC, appending them to DST as the last
+   tokens. */
+static void
+lex_stage_shift (struct lex_stage *dst, struct lex_stage *src, size_t n)
+{
+  for (size_t i = 0; i < n; i++)
+    lex_stage_push_last (dst, lex_stage_take_first (src));
 }
 
 /* A source of tokens, corresponding to a syntax file.
@@ -106,48 +218,61 @@ lex_token_uninit (struct lex_token *t)
 struct lex_source
   {
     struct ll ll;               /* In lexer's list of sources. */
+
+    /* Reference count:
+
+       - One for struct lexer.
+
+       - One for each struct msg_location that references this source. */
+    size_t n_refs;
+
     struct lex_reader *reader;
     struct lexer *lexer;
     struct segmenter segmenter;
     bool eof;                   /* True if T_STOP was read from 'reader'. */
 
     /* Buffer of UTF-8 bytes. */
-    char *buffer;
+    char *buffer;               /* Source file contents. */
+    size_t length;              /* Number of bytes filled. */
     size_t allocated;           /* Number of bytes allocated. */
-    size_t tail;                /* &buffer[0] offset into UTF-8 source. */
-    size_t head;                /* &buffer[head - tail] offset into source. */
 
-    /* Positions in source file, tail <= pos <= head for each member here. */
+    /* Offsets into 'buffer'. */
     size_t journal_pos;         /* First byte not yet output to journal. */
     size_t seg_pos;             /* First byte not yet scanned as token. */
-    size_t line_pos;            /* First byte of line containing seg_pos. */
 
-    int n_newlines;             /* Number of new-lines up to seg_pos. */
+    /* Offset into 'buffer' of starts of lines. */
+    size_t *lines;
+    size_t n_lines, allocated_lines;
+
     bool suppress_next_newline;
 
     /* Tokens.
 
-       This is mostly like a deque, with the invariant that 'back <= middle <=
-       front' (modulo SIZE_MAX+1).  The tokens available for parsing are
-       between 'back' and 'middle': the token at 'back' is the current token,
-       the token at 'back + 1' is the next token, and so on.  There are usually
-       no tokens between 'middle' and 'front'; if there are, then they need to
-       go through macro expansion and are not yet available for parsing.
-
-       'capacity' is the current number of elements in 'tokens'.  It is always
-       a power of 2.  'front', 'middle', and 'back' refer to indexes in
-       'tokens' modulo 'capacity'. */
-    size_t front;
-    size_t middle;
-    size_t back;
-    size_t capacity;
-    size_t mask;                /* capacity - 1 */
-    struct lex_token *tokens;
+       This is a pipeline with the following stages.  Each token eventually
+       made available to the parser passes through of these stages.  The stages
+       are named after the processing that happens in each one.
+
+       Initially, tokens come from the segmenter and scanner to 'pp':
+
+       - pp: Tokens that need to pass through the macro preprocessor to end up
+         in 'merge'.
+
+       - merge: Tokens that need to pass through scan_merge() to end up in
+         'parse'.
+
+       - parse: Tokens available to the client for parsing.
+
+      'pp' and 'merge' store tokens only temporarily until they pass into
+      'parse'.  Tokens then live in 'parse' until the command is fully
+      consumed, at which time they are freed together. */
+    struct lex_stage pp;
+    struct lex_stage merge;
+    struct lex_token **parse;
+    size_t n_parse, allocated_parse, parse_ofs;
   };
 
 static struct lex_source *lex_source_create (struct lexer *,
                                              struct lex_reader *);
-static void lex_source_destroy (struct lex_source *);
 
 /* Lexer. */
 struct lexer
@@ -157,13 +282,14 @@ struct lexer
   };
 
 static struct lex_source *lex_source__ (const struct lexer *);
-static char *lex_source_get_syntax__ (const struct lex_source *,
-                                      int n0, int n1);
+static char *lex_source_syntax__ (const struct lex_source *,
+                                  int ofs0, int ofs1);
 static const struct lex_token *lex_next__ (const struct lexer *, int n);
 static void lex_source_push_endcmd__ (struct lex_source *);
+static void lex_source_push_parse (struct lex_source *, struct lex_token *);
+static void lex_source_clear_parse (struct lex_source *);
 
-static void lex_source_pop_back (struct lex_source *);
-static bool lex_source_get (const struct lex_source *);
+static bool lex_source_get_parse (struct lex_source *);
 static void lex_source_error_valist (struct lex_source *, int n0, int n1,
                                      const char *format, va_list)
    PRINTF_FORMAT (4, 0);
@@ -215,7 +341,10 @@ lex_destroy (struct lexer *lexer)
       struct lex_source *source, *next;
 
       ll_for_each_safe (source, next, struct lex_source, ll, &lexer->sources)
-        lex_source_destroy (source);
+        {
+          ll_remove (&source->ll);
+          lex_source_unref (source);
+        }
       macro_set_destroy (lexer->macros);
       free (lexer);
     }
@@ -249,49 +378,6 @@ lex_append (struct lexer *lexer, struct lex_reader *reader)
 \f
 /* Advancing. */
 
-/* Adds a new token at the front of SRC and returns a pointer to it.  The
-   caller should initialize it.  Does not advance the middle pointer, so the
-   token isn't immediately available to the parser. */
-static struct lex_token *
-lex_push_token__ (struct lex_source *src)
-{
-  if (src->front - src->back >= src->capacity)
-    {
-      /* Expansion works just like a deque, so we reuse the code. */
-      struct deque deque = {
-        .capacity = src->capacity,
-        .front = src->front,
-        .back = src->back,
-      };
-      src->tokens = deque_expand (&deque, src->tokens, sizeof *src->tokens);
-      src->capacity = deque.capacity;
-      src->mask = src->capacity - 1;
-    }
-
-  struct lex_token *token = &src->tokens[src->front++ & src->mask];
-  token->token = (struct token) { .type = T_STOP };
-  token->macro_rep = NULL;
-  token->ref_cnt = NULL;
-  return token;
-}
-
-/* Removes the current token from SRC and uninitializes it. */
-static void
-lex_source_pop_back (struct lex_source *src)
-{
-  assert (src->middle - src->back > 0);
-  lex_token_uninit (&src->tokens[src->back++ & src->mask]);
-}
-
-/* Removes the token at the greatest lookahead from SRC and uninitializes
-   it. */
-static void
-lex_source_pop_front (struct lex_source *src)
-{
-  assert (src->front - src->middle > 0);
-  lex_token_uninit (&src->tokens[--src->front & src->mask]);
-}
-
 /* Advances LEXER to the next token, consuming the current token. */
 void
 lex_get (struct lexer *lexer)
@@ -302,18 +388,32 @@ lex_get (struct lexer *lexer)
   if (src == NULL)
     return;
 
-  if (src->middle - src->back > 0)
-    lex_source_pop_back (src);
+  if (src->parse_ofs < src->n_parse)
+    {
+      if (src->parse[src->parse_ofs]->token.type == T_ENDCMD)
+        lex_source_clear_parse (src);
+      else
+        src->parse_ofs++;
+    }
 
-  while (src->back == src->middle)
-    if (!lex_source_get (src))
+  while (src->parse_ofs == src->n_parse)
+    if (!lex_source_get_parse (src))
       {
-        lex_source_destroy (src);
+        ll_remove (&src->ll);
+        lex_source_unref (src);
         src = lex_source__ (lexer);
         if (src == NULL)
           return;
       }
 }
+
+/* Advances LEXER by N tokens. */
+void
+lex_get_n (struct lexer *lexer, size_t n)
+{
+  while (n-- > 0)
+    lex_get (lexer);
+}
 \f
 /* Issuing errors. */
 
@@ -430,6 +530,12 @@ lex_error_expecting_array (struct lexer *lexer, const char **options, size_t n)
                  options[5], options[6], options[7]);
       break;
 
+    case 9:
+      lex_error (lexer, _("expecting %s, %s, %s, %s, %s, %s, %s, %s, or %s"),
+                 options[0], options[1], options[2], options[3], options[4],
+                 options[5], options[6], options[7], options[8]);
+      break;
+
     default:
       lex_error (lexer, NULL);
     }
@@ -499,7 +605,8 @@ lex_next_error_valist (struct lexer *lexer, int n0, int n1,
           ds_put_cstr (&s, ": ");
           ds_put_vformat (&s, format, args);
         }
-      ds_put_byte (&s, '.');
+      if (ds_last (&s) != '.')
+        ds_put_byte (&s, '.');
       msg (SE, "%s", ds_cstr (&s));
       ds_destroy (&s);
     }
@@ -756,9 +863,14 @@ lex_force_int (struct lexer *lexer)
 bool
 lex_force_int_range (struct lexer *lexer, const char *name, long min, long max)
 {
+  bool is_number = lex_is_number (lexer);
   bool is_integer = lex_is_integer (lexer);
-  bool too_small = is_integer && lex_integer (lexer) < min;
-  bool too_big = is_integer && lex_integer (lexer) > max;
+  bool too_small = (is_integer ? lex_integer (lexer) < min
+                    : is_number ? lex_number (lexer) < min
+                    : false);
+  bool too_big = (is_integer ? lex_integer (lexer) > max
+                  : is_number ? lex_number (lexer) > max
+                  : false);
   if (is_integer && !too_small && !too_big)
     return true;
 
@@ -818,6 +930,14 @@ lex_force_int_range (struct lexer *lexer, const char *name, long min, long max)
               else
                 lex_error (lexer, _("Expected positive integer."));
             }
+          else
+            {
+              if (name)
+                lex_error (lexer, _("Expected integer %ld or greater for %s."),
+                           min, name);
+              else
+                lex_error (lexer, _("Expected integer %ld or greater."), min);
+            }
         }
       else if (report_upper_bound)
         {
@@ -852,68 +972,298 @@ lex_force_num (struct lexer *lexer)
   return false;
 }
 
-/* If the current token is an identifier, does nothing and returns true.
-   Otherwise, reports an error and returns false. */
+/* If the current token is an number in the closed range [MIN,MAX], does
+   nothing and returns true.  Otherwise, reports an error and returns false.
+   If NAME is nonnull, then it is used in the error message. */
 bool
-lex_force_id (struct lexer *lexer)
+lex_force_num_range_closed (struct lexer *lexer, const char *name,
+                            double min, double max)
 {
-  if (lex_token (lexer) == T_ID)
+  bool is_number = lex_is_number (lexer);
+  bool too_small = is_number && lex_number (lexer) < min;
+  bool too_big = is_number && lex_number (lexer) > max;
+  if (is_number && !too_small && !too_big)
     return true;
 
-  lex_error (lexer, _("expecting identifier"));
+  if (min > max)
+    {
+      /* Weird, maybe a bug in the caller.  Just report that we needed an
+         number. */
+      if (name)
+        lex_error (lexer, _("Number expected for %s."), name);
+      else
+        lex_error (lexer, _("Number expected."));
+    }
+  else if (min == max)
+    {
+      if (name)
+        lex_error (lexer, _("Expected %g for %s."), min, name);
+      else
+        lex_error (lexer, _("Expected %g."), min);
+    }
+  else
+    {
+      bool report_lower_bound = min > -DBL_MAX || too_small;
+      bool report_upper_bound = max < DBL_MAX || too_big;
+
+      if (report_lower_bound && report_upper_bound)
+        {
+          if (name)
+            lex_error (lexer,
+                       _("Expected number between %g and %g for %s."),
+                       min, max, name);
+          else
+            lex_error (lexer, _("Expected number between %g and %g."),
+                       min, max);
+        }
+      else if (report_lower_bound)
+        {
+          if (min == 0)
+            {
+              if (name)
+                lex_error (lexer, _("Expected non-negative number for %s."),
+                           name);
+              else
+                lex_error (lexer, _("Expected non-negative number."));
+            }
+          else
+            {
+              if (name)
+                lex_error (lexer, _("Expected number %g or greater for %s."),
+                           min, name);
+              else
+                lex_error (lexer, _("Expected number %g or greater."), min);
+            }
+        }
+      else if (report_upper_bound)
+        {
+          if (name)
+            lex_error (lexer,
+                       _("Expected number less than or equal to %g for %s."),
+                       max, name);
+          else
+            lex_error (lexer, _("Expected number less than or equal to %g."),
+                       max);
+        }
+      else
+        {
+          if (name)
+            lex_error (lexer, _("Number expected for %s."), name);
+          else
+            lex_error (lexer, _("Number expected."));
+        }
+    }
   return false;
 }
-\f
-/* Token accessors. */
 
-/* Returns the type of LEXER's current token. */
-enum token_type
-lex_token (const struct lexer *lexer)
+/* If the current token is an number in the half-open range [MIN,MAX), does
+   nothing and returns true.  Otherwise, reports an error and returns false.
+   If NAME is nonnull, then it is used in the error message. */
+bool
+lex_force_num_range_halfopen (struct lexer *lexer, const char *name,
+                              double min, double max)
 {
-  return lex_next_token (lexer, 0);
-}
+  bool is_number = lex_is_number (lexer);
+  bool too_small = is_number && lex_number (lexer) < min;
+  bool too_big = is_number && lex_number (lexer) >= max;
+  if (is_number && !too_small && !too_big)
+    return true;
 
-/* Returns the number in LEXER's current token.
+  if (min >= max)
+    {
+      /* Weird, maybe a bug in the caller.  Just report that we needed an
+         number. */
+      if (name)
+        lex_error (lexer, _("Number expected for %s."), name);
+      else
+        lex_error (lexer, _("Number expected."));
+    }
+  else
+    {
+      bool report_lower_bound = min > -DBL_MAX || too_small;
+      bool report_upper_bound = max < DBL_MAX || too_big;
 
-   Only T_NEG_NUM and T_POS_NUM tokens have meaningful values.  For other
-   tokens this function will always return zero. */
-double
-lex_tokval (const struct lexer *lexer)
-{
-  return lex_next_tokval (lexer, 0);
+      if (report_lower_bound && report_upper_bound)
+        {
+          if (name)
+            lex_error (lexer, _("Expected number in [%g,%g) for %s."),
+                       min, max, name);
+          else
+            lex_error (lexer, _("Expected number in [%g,%g)."),
+                       min, max);
+        }
+      else if (report_lower_bound)
+        {
+          if (min == 0)
+            {
+              if (name)
+                lex_error (lexer, _("Expected non-negative number for %s."),
+                           name);
+              else
+                lex_error (lexer, _("Expected non-negative number."));
+            }
+          else
+            {
+              if (name)
+                lex_error (lexer, _("Expected number %g or greater for %s."),
+                           min, name);
+              else
+                lex_error (lexer, _("Expected number %g or greater."), min);
+            }
+        }
+      else if (report_upper_bound)
+        {
+          if (name)
+            lex_error (lexer,
+                       _("Expected number less than %g for %s."), max, name);
+          else
+            lex_error (lexer, _("Expected number less than %g."), max);
+        }
+      else
+        {
+          if (name)
+            lex_error (lexer, _("Number expected for %s."), name);
+          else
+            lex_error (lexer, _("Number expected."));
+        }
+    }
+  return false;
 }
 
-/* Returns the null-terminated string in LEXER's current token, UTF-8 encoded.
-
-   Only T_ID and T_STRING tokens have meaningful strings.  For other tokens
-   this functions this function will always return NULL.
-
-   The UTF-8 encoding of the returned string is correct for variable names and
-   other identifiers.  Use filename_to_utf8() to use it as a filename.  Use
-   data_in() to use it in a "union value".  */
-const char *
-lex_tokcstr (const struct lexer *lexer)
+/* If the current token is an number in the open range (MIN,MAX], does
+   nothing and returns true.  Otherwise, reports an error and returns false.
+   If NAME is nonnull, then it is used in the error message. */
+bool
+lex_force_num_range_open (struct lexer *lexer, const char *name,
+                          double min, double max)
 {
-  return lex_next_tokcstr (lexer, 0);
-}
-
-/* Returns the string in LEXER's current token, UTF-8 encoded.  The string is
-   null-terminated (but the null terminator is not included in the returned
-   substring's 'length').
+  bool is_number = lex_is_number (lexer);
+  bool too_small = is_number && lex_number (lexer) <= min;
+  bool too_big = is_number && lex_number (lexer) >= max;
+  if (is_number && !too_small && !too_big)
+    return true;
 
-   Only T_ID and T_STRING tokens have meaningful strings.  For other tokens
-   this functions this function will always return NULL.
+  if (min >= max)
+    {
+      /* Weird, maybe a bug in the caller.  Just report that we needed an
+         number. */
+      if (name)
+        lex_error (lexer, _("Number expected for %s."), name);
+      else
+        lex_error (lexer, _("Number expected."));
+    }
+  else
+    {
+      bool report_lower_bound = min > -DBL_MAX || too_small;
+      bool report_upper_bound = max < DBL_MAX || too_big;
 
-   The UTF-8 encoding of the returned string is correct for variable names and
-   other identifiers.  Use filename_to_utf8() to use it as a filename.  Use
-   data_in() to use it in a "union value".  */
-struct substring
-lex_tokss (const struct lexer *lexer)
-{
-  return lex_next_tokss (lexer, 0);
-}
-\f
-/* Looking ahead.
+      if (report_lower_bound && report_upper_bound)
+        {
+          if (name)
+            lex_error (lexer, _("Expected number in (%g,%g) for %s."),
+                       min, max, name);
+          else
+            lex_error (lexer, _("Expected number in (%g,%g)."), min, max);
+        }
+      else if (report_lower_bound)
+        {
+          if (min == 0)
+            {
+              if (name)
+                lex_error (lexer, _("Expected positive number for %s."), name);
+              else
+                lex_error (lexer, _("Expected positive number."));
+            }
+          else
+            {
+              if (name)
+                lex_error (lexer, _("Expected number greater than %g for %s."),
+                           min, name);
+              else
+                lex_error (lexer, _("Expected number greater than %g."), min);
+            }
+        }
+      else if (report_upper_bound)
+        {
+          if (name)
+            lex_error (lexer, _("Expected number less than %g for %s."),
+                       max, name);
+          else
+            lex_error (lexer, _("Expected number less than %g."), max);
+        }
+      else
+        {
+          if (name)
+            lex_error (lexer, _("Number expected for %s."), name);
+          else
+            lex_error (lexer, _("Number expected."));
+        }
+    }
+  return false;
+}
+
+/* If the current token is an identifier, does nothing and returns true.
+   Otherwise, reports an error and returns false. */
+bool
+lex_force_id (struct lexer *lexer)
+{
+  if (lex_token (lexer) == T_ID)
+    return true;
+
+  lex_error (lexer, _("expecting identifier"));
+  return false;
+}
+\f
+/* Token accessors. */
+
+/* Returns the type of LEXER's current token. */
+enum token_type
+lex_token (const struct lexer *lexer)
+{
+  return lex_next_token (lexer, 0);
+}
+
+/* Returns the number in LEXER's current token.
+
+   Only T_NEG_NUM and T_POS_NUM tokens have meaningful values.  For other
+   tokens this function will always return zero. */
+double
+lex_tokval (const struct lexer *lexer)
+{
+  return lex_next_tokval (lexer, 0);
+}
+
+/* Returns the null-terminated string in LEXER's current token, UTF-8 encoded.
+
+   Only T_ID and T_STRING tokens have meaningful strings.  For other tokens
+   this functions this function will always return NULL.
+
+   The UTF-8 encoding of the returned string is correct for variable names and
+   other identifiers.  Use filename_to_utf8() to use it as a filename.  Use
+   data_in() to use it in a "union value".  */
+const char *
+lex_tokcstr (const struct lexer *lexer)
+{
+  return lex_next_tokcstr (lexer, 0);
+}
+
+/* Returns the string in LEXER's current token, UTF-8 encoded.  The string is
+   null-terminated (but the null terminator is not included in the returned
+   substring's 'length').
+
+   Only T_ID and T_STRING tokens have meaningful strings.  For other tokens
+   this functions this function will always return NULL.
+
+   The UTF-8 encoding of the returned string is correct for variable names and
+   other identifiers.  Use filename_to_utf8() to use it as a filename.  Use
+   data_in() to use it in a "union value".  */
+struct substring
+lex_tokss (const struct lexer *lexer)
+{
+  return lex_next_tokss (lexer, 0);
+}
+\f
+/* Looking ahead.
 
    A value of 0 for N as an argument to any of these functions refers to the
    current token.  Lookahead is limited to the current command.  Any N greater
@@ -935,30 +1285,37 @@ lex_next__ (const struct lexer *lexer_, int n)
     }
 }
 
-/* Returns the token in SRC with the greatest lookahead. */
 static const struct lex_token *
-lex_source_middle (const struct lex_source *src)
+lex_source_ofs__ (const struct lex_source *src_, int ofs)
 {
-  assert (src->middle - src->back > 0);
-  return &src->tokens[(src->middle - 1) & src->mask];
-}
+  struct lex_source *src = CONST_CAST (struct lex_source *, src_);
 
-static const struct lex_token *
-lex_source_next__ (const struct lex_source *src, int n)
-{
-  while (src->middle - src->back <= n)
+  if (ofs < 0)
+    {
+      static const struct lex_token endcmd_token
+        = { .token = { .type = T_ENDCMD } };
+      return &endcmd_token;
+    }
+
+  while (ofs >= src->n_parse)
     {
-      if (src->middle - src->back > 0)
+      if (src->n_parse > 0)
         {
-          const struct lex_token *middle = lex_source_middle (src);
-          if (middle->token.type == T_STOP || middle->token.type == T_ENDCMD)
-            return middle;
+          const struct lex_token *t = src->parse[src->n_parse - 1];
+          if (t->token.type == T_STOP || t->token.type == T_ENDCMD)
+            return t;
         }
 
-      lex_source_get (src);
+      lex_source_get_parse (src);
     }
 
-  return &src->tokens[(src->back + n) & src->mask];
+  return src->parse[ofs];
+}
+
+static const struct lex_token *
+lex_source_next__ (const struct lex_source *src, int n)
+{
+  return lex_source_ofs__ (src, n + src->parse_ofs);
 }
 
 /* Returns the "struct token" of the token N after the current one in LEXER.
@@ -1019,17 +1376,118 @@ lex_next_tokss (const struct lexer *lexer, int n)
   return lex_next (lexer, n)->string;
 }
 
+/* Returns the offset of the current token within the command being parsed in
+   LEXER.  This is 0 for the first token in a command, 1 for the second, and so
+   on.  The return value is useful later for referring to this token in calls
+   to lex_ofs_*(). */
+int
+lex_ofs (const struct lexer *lexer)
+{
+  struct lex_source *src = lex_source__ (lexer);
+  return src ? src->parse_ofs : 0;
+}
+
+/* Returns the token within LEXER's current command with offset OFS.  Use
+   lex_ofs() to find out the offset of the current token. */
+const struct token *
+lex_ofs_token (const struct lexer *lexer_, int ofs)
+{
+  struct lexer *lexer = CONST_CAST (struct lexer *, lexer_);
+  struct lex_source *src = lex_source__ (lexer);
+
+  if (src != NULL)
+    return &lex_source_next__ (src, ofs - src->parse_ofs)->token;
+  else
+    {
+      static const struct token stop_token = { .type = T_STOP };
+      return &stop_token;
+    }
+}
+
+/* Allocates and returns a new struct msg_location that spans tokens with
+   offsets OFS0 through OFS1, inclusive, within the current command in
+   LEXER.  See lex_ofs() for an explanation of token offsets.
+
+   The caller owns and must eventually free the returned object. */
+struct msg_location *
+lex_ofs_location (const struct lexer *lexer, int ofs0, int ofs1)
+{
+  int ofs = lex_ofs (lexer);
+  return lex_get_location (lexer, ofs0 - ofs, ofs1 - ofs);
+}
+
+/* Returns a msg_point for the first character in the token with offset OFS,
+   where offset 0 is the first token in the command currently being parsed, 1
+   the second token, and so on.  These are absolute offsets, not relative to
+   the token currently being parsed within the command.
+
+   Returns zeros for a T_STOP token.
+ */
+struct msg_point
+lex_ofs_start_point (const struct lexer *lexer, int ofs)
+{
+  const struct lex_source *src = lex_source__ (lexer);
+  return (src
+          ? lex_token_start_point (src, lex_source_ofs__ (src, ofs))
+          : (struct msg_point) { 0, 0 });
+}
+
+/* Returns a msg_point for the last character, inclusive, in the token with
+   offset OFS, where offset 0 is the first token in the command currently being
+   parsed, 1 the second token, and so on.  These are absolute offsets, not
+   relative to the token currently being parsed within the command.
+
+   Returns zeros for a T_STOP token.
+
+   Most of the time, a single token is wholly within a single line of syntax,
+   so that the start and end point for a given offset have the same line
+   number.  There are two exceptions: a T_STRING token can be made up of
+   multiple segments on adjacent lines connected with "+" punctuators, and a
+   T_NEG_NUM token can consist of a "-" on one line followed by the number on
+   the next.
+ */
+struct msg_point
+lex_ofs_end_point (const struct lexer *lexer, int ofs)
+{
+  const struct lex_source *src = lex_source__ (lexer);
+  return (src
+          ? lex_token_end_point (src, lex_source_ofs__ (src, ofs))
+          : (struct msg_point) { 0, 0 });
+}
+
 /* Returns the text of the syntax in tokens N0 ahead of the current one,
    through N1 ahead of the current one, inclusive.  (For example, if N0 and N1
-   are both zero, this requests the syntax for the current token.)  The caller
-   must eventually free the returned string (with free()).  The syntax is
-   encoded in UTF-8 and in the original form supplied to the lexer so that, for
-   example, it may include comments, spaces, and new-lines if it spans multiple
-   tokens.  Macro expansion, however, has already been performed. */
+   are both zero, this requests the syntax for the current token.)
+
+   The caller must eventually free the returned string (with free()).  The
+   syntax is encoded in UTF-8 and in the original form supplied to the lexer so
+   that, for example, it may include comments, spaces, and new-lines if it
+   spans multiple tokens.  Macro expansion, however, has already been
+   performed. */
 char *
 lex_next_representation (const struct lexer *lexer, int n0, int n1)
 {
-  return lex_source_get_syntax__ (lex_source__ (lexer), n0, n1);
+  const struct lex_source *src = lex_source__ (lexer);
+  return (src
+          ? lex_source_syntax__ (src, n0 + src->parse_ofs, n1 + src->parse_ofs)
+          : xstrdup (""));
+}
+
+
+/* Returns the text of the syntax in tokens with offsets OFS0 to OFS1,
+   inclusive.  (For example, if OFS0 and OFS1 are both zero, this requests the
+   syntax for the first token in the current command.)
+
+   The caller must eventually free the returned string (with free()).  The
+   syntax is encoded in UTF-8 and in the original form supplied to the lexer so
+   that, for example, it may include comments, spaces, and new-lines if it
+   spans multiple tokens.  Macro expansion, however, has already been
+   performed. */
+char *
+lex_ofs_representation (const struct lexer *lexer, int ofs0, int ofs1)
+{
+  const struct lex_source *src = lex_source__ (lexer);
+  return src ? lex_source_syntax__ (src, ofs0, ofs1) : xstrdup ("");
 }
 
 /* Returns true if the token N ahead of the current one was produced by macro
@@ -1065,173 +1523,132 @@ lex_tokens_match (const struct token *actual, const struct token *expected)
     }
 }
 
-/* If LEXER is positioned at the sequence of tokens that may be parsed from S,
-   skips it and returns true.  Otherwise, returns false.
-
-   S may consist of an arbitrary sequence of tokens, e.g. "KRUSKAL-WALLIS",
-   "2SLS", or "END INPUT PROGRAM".  Identifiers may be abbreviated to their
-   first three letters. */
-bool
-lex_match_phrase (struct lexer *lexer, const char *s)
+static size_t
+lex_at_phrase__ (struct lexer *lexer, const char *s)
 {
   struct string_lexer slex;
   struct token token;
-  int i;
 
-  i = 0;
+  size_t i = 0;
   string_lexer_init (&slex, s, strlen (s), SEG_MODE_INTERACTIVE, true);
   while (string_lexer_next (&slex, &token))
-    if (token.type != SCAN_SKIP)
-      {
-        bool match = lex_tokens_match (lex_next (lexer, i++), &token);
-        token_uninit (&token);
-        if (!match)
-          return false;
-      }
-
-  while (i-- > 0)
-    lex_get (lexer);
-  return true;
+    {
+      bool match = lex_tokens_match (lex_next (lexer, i++), &token);
+      token_uninit (&token);
+      if (!match)
+        return 0;
+    }
+  return i;
 }
 
-static int
-lex_source_get_first_line_number (const struct lex_source *src, int n)
-{
-  return lex_source_next__ (src, n)->first_line;
-}
+/* If LEXER is positioned at the sequence of tokens that may be parsed from S,
+   returns true.  Otherwise, returns false.
 
-static int
-count_newlines (char *s, size_t length)
+   S may consist of an arbitrary sequence of tokens, e.g. "KRUSKAL-WALLIS",
+   "2SLS", or "END INPUT PROGRAM".  Identifiers may be abbreviated to their
+   first three letters. */
+bool
+lex_at_phrase (struct lexer *lexer, const char *s)
 {
-  int n_newlines = 0;
-  char *newline;
-
-  while ((newline = memchr (s, '\n', length)) != NULL)
-    {
-      n_newlines++;
-      length -= (newline + 1) - s;
-      s = newline + 1;
-    }
-
-  return n_newlines;
+  return lex_at_phrase__ (lexer, s) > 0;
 }
 
-static int
-lex_source_get_last_line_number (const struct lex_source *src, int n)
-{
-  const struct lex_token *token = lex_source_next__ (src, n);
+/* If LEXER is positioned at the sequence of tokens that may be parsed from S,
+   skips it and returns true.  Otherwise, returns false.
 
-  if (token->first_line == 0)
-    return 0;
-  else
-    {
-      char *token_str = &src->buffer[token->token_pos - src->tail];
-      return token->first_line + count_newlines (token_str, token->token_len) + 1;
-    }
+   S may consist of an arbitrary sequence of tokens, e.g. "KRUSKAL-WALLIS",
+   "2SLS", or "END INPUT PROGRAM".  Identifiers may be abbreviated to their
+   first three letters. */
+bool
+lex_match_phrase (struct lexer *lexer, const char *s)
+{
+  size_t n = lex_at_phrase__ (lexer, s);
+  if (n > 0)
+    lex_get_n (lexer, n);
+  return n > 0;
 }
 
+/* Returns the 1-based line number of the source text at the byte OFFSET in
+   SRC. */
 static int
-count_columns (const char *s_, size_t length)
+lex_source_ofs_to_line_number (const struct lex_source *src, size_t offset)
 {
-  const uint8_t *s = CHAR_CAST (const uint8_t *, s_);
-  int columns;
-  size_t ofs;
-  int mblen;
-
-  columns = 0;
-  for (ofs = 0; ofs < length; ofs += mblen)
+  size_t lo = 0;
+  size_t hi = src->n_lines;
+  for (;;)
     {
-      ucs4_t uc;
-
-      mblen = u8_mbtouc (&uc, s + ofs, length - ofs);
-      if (uc != '\t')
-        {
-          int width = uc_width (uc, "UTF-8");
-          if (width > 0)
-            columns += width;
-        }
+      size_t mid = (lo + hi) / 2;
+      if (mid + 1 >= src->n_lines)
+        return src->n_lines;
+      else if (offset >= src->lines[mid + 1])
+        lo = mid;
+      else if (offset < src->lines[mid])
+        hi = mid;
       else
-        columns = ROUND_UP (columns + 1, 8);
+        return mid + 1;
     }
-
-  return columns + 1;
 }
 
+/* Returns the 1-based column number of the source text at the byte OFFSET in
+   SRC. */
 static int
-lex_source_get_first_column (const struct lex_source *src, int n)
+lex_source_ofs_to_column_number (const struct lex_source *src, size_t offset)
 {
-  const struct lex_token *token = lex_source_next__ (src, n);
-  return count_columns (&src->buffer[token->line_pos - src->tail],
-                        token->token_pos - token->line_pos);
+  const char *newline = memrchr (src->buffer, '\n', offset);
+  size_t line_ofs = newline ? newline - src->buffer + 1 : 0;
+  return utf8_count_columns (&src->buffer[line_ofs], offset - line_ofs) + 1;
 }
 
-static int
-lex_source_get_last_column (const struct lex_source *src, int n)
+static struct msg_point
+lex_source_ofs_to_point__ (const struct lex_source *src, size_t offset)
 {
-  const struct lex_token *token = lex_source_next__ (src, n);
-  char *start, *end, *newline;
-
-  start = &src->buffer[token->line_pos - src->tail];
-  end = &src->buffer[(token->token_pos + token->token_len) - src->tail];
-  newline = memrchr (start, '\n', end - start);
-  if (newline != NULL)
-    start = newline + 1;
-  return count_columns (start, end - start);
+  return (struct msg_point) {
+    .line = lex_source_ofs_to_line_number (src, offset),
+    .column = lex_source_ofs_to_column_number (src, offset),
+  };
 }
 
-/* Returns the 1-based line number of the start of the syntax that represents
-   the token N after the current one in LEXER.  Returns 0 for a T_STOP token or
-   if the token is drawn from a source that does not have line numbers. */
-int
-lex_get_first_line_number (const struct lexer *lexer, int n)
+static struct msg_point
+lex_token_start_point (const struct lex_source *src,
+                       const struct lex_token *token)
 {
-  const struct lex_source *src = lex_source__ (lexer);
-  return src != NULL ? lex_source_get_first_line_number (src, n) : 0;
+  return lex_source_ofs_to_point__ (src, token->token_pos);
 }
 
-/* Returns the 1-based line number of the end of the syntax that represents the
-   token N after the current one in LEXER, plus 1.  Returns 0 for a T_STOP
-   token or if the token is drawn from a source that does not have line
-   numbers.
-
-   Most of the time, a single token is wholly within a single line of syntax,
-   but there are two exceptions: a T_STRING token can be made up of multiple
-   segments on adjacent lines connected with "+" punctuators, and a T_NEG_NUM
-   token can consist of a "-" on one line followed by the number on the next.
- */
-int
-lex_get_last_line_number (const struct lexer *lexer, int n)
+static struct msg_point
+lex_token_end_point (const struct lex_source *src,
+                     const struct lex_token *token)
 {
-  const struct lex_source *src = lex_source__ (lexer);
-  return src != NULL ? lex_source_get_last_line_number (src, n) : 0;
+  return lex_source_ofs_to_point__ (src, lex_token_end (token));
 }
 
-/* Returns the 1-based column number of the start of the syntax that represents
-   the token N after the current one in LEXER.  Returns 0 for a T_STOP
-   token.
-
-   Column numbers are measured according to the width of characters as shown in
-   a typical fixed-width font, in which CJK characters have width 2 and
-   combining characters have width 0.  */
-int
-lex_get_first_column (const struct lexer *lexer, int n)
+static struct msg_location
+lex_token_location (const struct lex_source *src,
+                    const struct lex_token *t0,
+                    const struct lex_token *t1)
 {
-  const struct lex_source *src = lex_source__ (lexer);
-  return src != NULL ? lex_source_get_first_column (src, n) : 0;
+  return (struct msg_location) {
+    .file_name = intern_new_if_nonnull (src->reader->file_name),
+    .start = lex_token_start_point (src, t0),
+    .end = lex_token_end_point (src, t1),
+  };
 }
 
-/* Returns the 1-based column number of the end of the syntax that represents
-   the token N after the current one in LEXER, plus 1.  Returns 0 for a T_STOP
-   token.
+static struct msg_location *
+lex_token_location_rw (const struct lex_source *src,
+                       const struct lex_token *t0,
+                       const struct lex_token *t1)
+{
+  struct msg_location location = lex_token_location (src, t0, t1);
+  return msg_location_dup (&location);
+}
 
-   Column numbers are measured according to the width of characters as shown in
-   a typical fixed-width font, in which CJK characters have width 2 and
-   combining characters have width 0.  */
-int
-lex_get_last_column (const struct lexer *lexer, int n)
+static struct msg_location *
+lex_source_get_location (const struct lex_source *src, int n0, int n1)
 {
-  const struct lex_source *src = lex_source__ (lexer);
-  return src != NULL ? lex_source_get_last_column (src, n) : 0;
+  return lex_token_location_rw (src,
+                                lex_source_next__ (src, n0),
+                                lex_source_next__ (src, n1));
 }
 
 /* Returns the name of the syntax file from which the current command is drawn.
@@ -1253,26 +1670,15 @@ lex_get_file_name (const struct lexer *lexer)
    must eventually free the location (with msg_location_destroy()). */
 struct msg_location *
 lex_get_location (const struct lexer *lexer, int n0, int n1)
-{
-  struct msg_location *loc = lex_get_lines (lexer, n0, n1);
-  loc->first_column = lex_get_first_column (lexer, n0);
-  loc->last_column = lex_get_last_column (lexer, n1);
-  return loc;
-}
-
-/* Returns a newly allocated msg_location for the syntax that represents tokens
-   with 0-based offsets N0...N1, inclusive, from the current token.  The
-   location only covers the tokens' lines, not the columns.  The caller must
-   eventually free the location (with msg_location_destroy()). */
-struct msg_location *
-lex_get_lines (const struct lexer *lexer, int n0, int n1)
 {
   struct msg_location *loc = xmalloc (sizeof *loc);
   *loc = (struct msg_location) {
-    .file_name = xstrdup_if_nonnull (lex_get_file_name (lexer)),
-    .first_line = lex_get_first_line_number (lexer, n0),
-    .last_line = lex_get_last_line_number (lexer, n1),
+    .file_name = intern_new_if_nonnull (lex_get_file_name (lexer)),
+    .start = lex_ofs_start_point (lexer, n0 + lex_ofs (lexer)),
+    .end = lex_ofs_end_point (lexer, n1 + lex_ofs (lexer)),
+    .src = lex_source__ (lexer),
   };
+  lex_source_ref (loc->src);
   return loc;
 }
 
@@ -1324,16 +1730,15 @@ lex_interactive_reset (struct lexer *lexer)
   struct lex_source *src = lex_source__ (lexer);
   if (src != NULL && src->reader->error == LEX_ERROR_TERMINAL)
     {
-      src->head = src->tail = 0;
-      src->journal_pos = src->seg_pos = src->line_pos = 0;
-      src->n_newlines = 0;
+      src->length = 0;
+      src->journal_pos = src->seg_pos = 0;
+      src->n_lines = 0;
       src->suppress_next_newline = false;
       src->segmenter = segmenter_init (segmenter_get_mode (&src->segmenter),
                                        false);
-      while (src->middle - src->back > 0)
-        lex_source_pop_back (src);
-      while (src->front - src->middle > 0)
-        lex_source_pop_front (src);
+      lex_stage_clear (&src->pp);
+      lex_stage_clear (&src->merge);
+      lex_source_clear_parse (src);
       lex_source_push_endcmd__ (src);
     }
 }
@@ -1356,57 +1761,24 @@ lex_discard_noninteractive (struct lexer *lexer)
 
   if (src != NULL)
     {
-      while (src->middle - src->back > 0)
-        lex_source_pop_back (src);
+      lex_stage_clear (&src->pp);
+      lex_stage_clear (&src->merge);
+      lex_source_clear_parse (src);
 
       for (; src != NULL && src->reader->error != LEX_ERROR_TERMINAL;
            src = lex_source__ (lexer))
-        lex_source_destroy (src);
+        {
+          ll_remove (&src->ll);
+          lex_source_unref (src);
+        }
     }
 }
 \f
-static size_t
-lex_source_max_tail__ (const struct lex_source *src)
-{
-  const struct lex_token *token;
-  size_t max_tail;
-
-  assert (src->seg_pos >= src->line_pos);
-  max_tail = MIN (src->journal_pos, src->line_pos);
-
-  /* Use the oldest token also.  (We know that src->deque cannot be empty
-     because we are in the process of adding a new token, which is already
-     initialized enough to use here.) */
-  token = &src->tokens[src->back & src->mask];
-  assert (token->token_pos >= token->line_pos);
-  max_tail = MIN (max_tail, token->line_pos);
-
-  return max_tail;
-}
-
 static void
 lex_source_expand__ (struct lex_source *src)
 {
-  if (src->head - src->tail >= src->allocated)
-    {
-      size_t max_tail = lex_source_max_tail__ (src);
-      if (max_tail > src->tail)
-        {
-          /* Advance the tail, freeing up room at the head. */
-          memmove (src->buffer, src->buffer + (max_tail - src->tail),
-                   src->head - max_tail);
-          src->tail = max_tail;
-        }
-      else
-        {
-          /* Buffer is completely full.  Expand it. */
-          src->buffer = x2realloc (src->buffer, &src->allocated);
-        }
-    }
-  else
-    {
-      /* There's space available at the head of the buffer.  Nothing to do. */
-    }
+  if (src->length >= src->allocated)
+    src->buffer = x2realloc (src->buffer, &src->allocated);
 }
 
 static void
@@ -1416,10 +1788,10 @@ lex_source_read__ (struct lex_source *src)
     {
       lex_source_expand__ (src);
 
-      size_t head_ofs = src->head - src->tail;
-      size_t space = src->allocated - head_ofs;
+      size_t space = src->allocated - src->length;
       enum prompt_style prompt = segmenter_get_prompt (&src->segmenter);
-      size_t n = src->reader->class->read (src->reader, &src->buffer[head_ofs],
+      size_t n = src->reader->class->read (src->reader,
+                                           &src->buffer[src->length],
                                            space, prompt);
       assert (n <= space);
 
@@ -1427,14 +1799,13 @@ lex_source_read__ (struct lex_source *src)
         {
           /* End of input. */
           src->reader->eof = true;
-          lex_source_expand__ (src);
           return;
         }
 
-      src->head += n;
+      src->length += n;
     }
-  while (!memchr (&src->buffer[src->seg_pos - src->tail], '\n',
-                  src->head - src->seg_pos));
+  while (!memchr (&src->buffer[src->seg_pos], '\n',
+                  src->length - src->seg_pos));
 }
 
 static struct lex_source *
@@ -1444,32 +1815,33 @@ lex_source__ (const struct lexer *lexer)
           : ll_data (ll_head (&lexer->sources), struct lex_source, ll));
 }
 
-/* Returns the text of the syntax in SRC for tokens N0 ahead of the current
-   one, through N1 ahead of the current one, inclusive.  (For example, if N0
-   and N1 are both zero, this requests the syntax for the current token.)  The
-   caller must eventually free the returned string (with free()).  The syntax
-   is encoded in UTF-8 and in the original form supplied to the lexer so that,
-   for example, it may include comments, spaces, and new-lines if it spans
-   multiple tokens.  Macro expansion, however, has already been performed. */
+/* Returns the text of the syntax in SRC for tokens with offsets OFS0 through
+   OFS1 in the current command, inclusive.  (For example, if OFS0 and OFS1 are
+   both zero, this requests the syntax for the first token in the current
+   command.)  The caller must eventually free the returned string (with
+   free()).  The syntax is encoded in UTF-8 and in the original form supplied
+   to the lexer so that, for example, it may include comments, spaces, and
+   new-lines if it spans multiple tokens.  Macro expansion, however, has
+   already been performed. */
 static char *
-lex_source_get_syntax__ (const struct lex_source *src, int n0, int n1)
+lex_source_syntax__ (const struct lex_source *src, int ofs0, int ofs1)
 {
   struct string s = DS_EMPTY_INITIALIZER;
-  for (size_t i = n0; i <= n1; )
+  for (size_t i = ofs0; i <= ofs1; )
     {
       /* Find [I,J) as the longest sequence of tokens not produced by macro
          expansion, or otherwise the longest sequence expanded from a single
          macro call. */
-      const struct lex_token *first = lex_source_next__ (src, i);
+      const struct lex_token *first = lex_source_ofs__ (src, i);
       size_t j;
-      for (j = i + 1; j <= n1; j++)
+      for (j = i + 1; j <= ofs1; j++)
         {
-          const struct lex_token *cur = lex_source_next__ (src, j);
+          const struct lex_token *cur = lex_source_ofs__ (src, j);
           if ((first->macro_rep != NULL) != (cur->macro_rep != NULL)
               || first->macro_rep != cur->macro_rep)
             break;
         }
-      const struct lex_token *last = lex_source_next__ (src, j - 1);
+      const struct lex_token *last = lex_source_ofs__ (src, j - 1);
 
       /* Now add the syntax for this sequence of tokens to SRC. */
       if (!ds_is_empty (&s))
@@ -1478,8 +1850,7 @@ lex_source_get_syntax__ (const struct lex_source *src, int n0, int n1)
         {
           size_t start = first->token_pos;
           size_t end = last->token_pos + last->token_len;
-          ds_put_substring (&s, ss_buffer (&src->buffer[start - src->tail],
-                                           end - start));
+          ds_put_substring (&s, ss_buffer (&src->buffer[start], end - start));
         }
       else
         {
@@ -1497,7 +1868,7 @@ lex_source_get_syntax__ (const struct lex_source *src, int n0, int n1)
 static bool
 lex_source_contains_macro_call (struct lex_source *src, int n0, int n1)
 {
-  for (size_t i = n0; i <= n1; i++)
+  for (int i = n0; i <= n1; i++)
     if (lex_source_next__ (src, i)->macro_rep)
       return true;
   return false;
@@ -1523,7 +1894,7 @@ lex_source_get_macro_call (struct lex_source *src, int n0, int n1)
   size_t start = token0->token_pos;
   size_t end = token1->token_pos + token1->token_len;
 
-  return ss_buffer (&src->buffer[start - src->tail], end - start);
+  return ss_buffer (&src->buffer[start], end - start);
 }
 
 static void
@@ -1541,7 +1912,8 @@ lex_source_error_valist (struct lex_source *src, int n0, int n1,
   else
     {
       /* Get the syntax that caused the error. */
-      char *raw_syntax = lex_source_get_syntax__ (src, n0, n1);
+      char *raw_syntax = lex_source_syntax__ (src, n0 + src->parse_ofs,
+                                              n1 + src->parse_ofs);
       char syntax[64];
       str_ellipsize (ss_cstr (raw_syntax), syntax, sizeof syntax);
       free (raw_syntax);
@@ -1579,138 +1951,89 @@ lex_source_error_valist (struct lex_source *src, int n0, int n1,
   if (ds_last (&s) != '.')
     ds_put_byte (&s, '.');
 
-  struct msg_location *location = xmalloc (sizeof *location);
-  *location = (struct msg_location) {
-    .file_name = xstrdup_if_nonnull (src->reader->file_name),
-    .first_line = lex_source_get_first_line_number (src, n0),
-    .last_line = lex_source_get_last_line_number (src, n1),
-    .first_column = lex_source_get_first_column (src, n0),
-    .last_column = lex_source_get_last_column (src, n1),
-  };
   struct msg *m = xmalloc (sizeof *m);
   *m = (struct msg) {
     .category = MSG_C_SYNTAX,
     .severity = MSG_S_ERROR,
-    .location = location,
+    .location = lex_source_get_location (src, n0, n1),
     .text = ds_steal_cstr (&s),
   };
   msg_emit (m);
 }
 
-static void PRINTF_FORMAT (4, 5)
-lex_source_error (struct lex_source *src, int n0, int n1,
-                  const char *format, ...)
-{
-  va_list args;
-  va_start (args, format);
-  lex_source_error_valist (src, n0, n1, format, args);
-  va_end (args);
-}
-
 static void
-lex_get_error (struct lex_source *src, const char *s)
+lex_get_error (struct lex_source *src, const struct lex_token *token)
 {
-  size_t old_middle = src->middle;
-  src->middle = src->front;
-  size_t n = src->front - src->back - 1;
-  lex_source_error (src, n, n, "%s", s);
-  src->middle = old_middle;
+  char syntax[64];
+  str_ellipsize (ss_buffer (&src->buffer[token->token_pos], token->token_len),
+                 syntax, sizeof syntax);
 
-  lex_source_pop_front (src);
-}
+  struct string s = DS_EMPTY_INITIALIZER;
+  ds_put_format (&s, _("Syntax error at `%s'"), syntax);
+  ds_put_format (&s, ": %s", token->token.string.string);
 
-/* Attempts to append an additional token at the front of SRC, reading more
-   from the underlying lex_reader if necessary.  Returns true if a new token
-   was added to SRC's deque, false otherwise.  The caller should retry failures
-   unless SRC's 'eof' marker was set to true indicating that there will be no
-   more tokens from this source.
+  struct msg *m = xmalloc (sizeof *m);
+  *m = (struct msg) {
+    .category = MSG_C_SYNTAX,
+    .severity = MSG_S_ERROR,
+    .location = lex_token_location_rw (src, token, token),
+    .text = ds_steal_cstr (&s),
+  };
+  msg_emit (m);
+}
 
-   Does not make the new token available for lookahead yet; the caller must
-   adjust SRC's 'middle' pointer to do so. */
+/* Attempts to append an additional token to 'pp' in SRC, reading more from the
+   underlying lex_reader if necessary.  Returns true if a new token was added
+   to SRC's deque, false otherwise.  The caller should retry failures unless
+   SRC's 'eof' marker was set to true indicating that there will be no more
+   tokens from this source. */
 static bool
-lex_source_try_get__ (struct lex_source *src)
+lex_source_try_get_pp (struct lex_source *src)
 {
-  /* State maintained while scanning tokens.  Usually we only need a single
-     state, but scanner_push() can return SCAN_SAVE to indicate that the state
-     needs to be saved and possibly restored later with SCAN_BACK. */
-  struct state
-    {
-      struct segmenter segmenter;
-      enum segment_type last_segment;
-      int newlines;             /* Number of newlines encountered so far. */
-      /* Maintained here so we can update lex_source's similar members when we
-         finish. */
-      size_t line_pos;
-      size_t seg_pos;
-    };
-
-  /* Initialize state. */
-  struct state state =
-    {
-      .segmenter = src->segmenter,
-      .newlines = 0,
-      .seg_pos = src->seg_pos,
-      .line_pos = src->line_pos,
-    };
-  struct state saved = state;
-
   /* Append a new token to SRC and initialize it. */
-  struct lex_token *token = lex_push_token__ (src);
-  struct scanner scanner;
-  scanner_init (&scanner, &token->token);
-  token->line_pos = src->line_pos;
+  struct lex_token *token = xmalloc (sizeof *token);
+  token->token = (struct token) { .type = T_STOP };
+  token->macro_rep = NULL;
+  token->ref_cnt = NULL;
   token->token_pos = src->seg_pos;
-  if (src->reader->line_number > 0)
-    token->first_line = src->reader->line_number + src->n_newlines;
-  else
-    token->first_line = 0;
 
-  /* Extract segments and pass them through the scanner until we obtain a
-     token. */
+  /* Extract a segment. */
+  const char *segment;
+  enum segment_type seg_type;
+  int seg_len;
   for (;;)
     {
-      /* Extract a segment. */
-      const char *segment = &src->buffer[state.seg_pos - src->tail];
-      size_t seg_maxlen = src->head - state.seg_pos;
-      enum segment_type type;
-      int seg_len = segmenter_push (&state.segmenter, segment, seg_maxlen,
-                                    src->reader->eof, &type);
-      if (seg_len < 0)
-        {
-          /* The segmenter needs more input to produce a segment. */
-          assert (!src->reader->eof);
-          lex_source_read__ (src);
-          continue;
-        }
+      segment = &src->buffer[src->seg_pos];
+      seg_len = segmenter_push (&src->segmenter, segment,
+                                src->length - src->seg_pos,
+                                src->reader->eof, &seg_type);
+      if (seg_len >= 0)
+        break;
 
-      /* Update state based on the segment. */
-      state.last_segment = type;
-      state.seg_pos += seg_len;
-      if (type == SEG_NEWLINE)
-        {
-          state.newlines++;
-          state.line_pos = state.seg_pos;
-        }
+      /* The segmenter needs more input to produce a segment. */
+      assert (!src->reader->eof);
+      lex_source_read__ (src);
+    }
 
-      /* Pass the segment into the scanner and try to get a token out. */
-      enum scan_result result = scanner_push (&scanner, type,
-                                              ss_buffer (segment, seg_len),
-                                              &token->token);
-      if (result == SCAN_SAVE)
-        saved = state;
-      else if (result == SCAN_BACK)
-        {
-          state = saved;
-          break;
-        }
-      else if (result == SCAN_DONE)
-        break;
+  /* Update state based on the segment. */
+  token->token_len = seg_len;
+  src->seg_pos += seg_len;
+  if (seg_type == SEG_NEWLINE)
+    {
+      if (src->n_lines >= src->allocated_lines)
+        src->lines = x2nrealloc (src->lines, &src->allocated_lines,
+                                 sizeof *src->lines);
+      src->lines[src->n_lines++] = src->seg_pos;
     }
 
+  /* Get a token from the segment. */
+  enum tokenize_result result = token_from_segment (
+    seg_type, ss_buffer (segment, seg_len), &token->token);
+
   /* If we've reached the end of a line, or the end of a command, then pass
      the line to the output engine as a syntax text item.  */
-  int n_lines = state.newlines;
-  if (state.last_segment == SEG_END_COMMAND && !src->suppress_next_newline)
+  int n_lines = seg_type == SEG_NEWLINE;
+  if (seg_type == SEG_END_COMMAND && !src->suppress_next_newline)
     {
       n_lines++;
       src->suppress_next_newline = true;
@@ -1723,15 +2046,15 @@ lex_source_try_get__ (struct lex_source *src)
   for (int i = 0; i < n_lines; i++)
     {
       /* Beginning of line. */
-      const char *line = &src->buffer[src->journal_pos - src->tail];
+      const char *line = &src->buffer[src->journal_pos];
 
       /* Calculate line length, including \n or \r\n end-of-line if present.
 
-         We use src->head even though that may be beyond what we've actually
-         converted to tokens (which is only through state.line_pos).  That's
-         because, if we're emitting the line due to SEG_END_COMMAND, we want to
-         take the whole line through the newline, not just through the '.'. */
-      size_t max_len = src->head - src->journal_pos;
+         We use src->length even though that may be beyond what we've actually
+         converted to tokens.  That's because, if we're emitting the line due
+         to SEG_END_COMMAND, we want to take the whole line through the
+         newline, not just through the '.'. */
+      size_t max_len = src->length - src->journal_pos;
       const char *newline = memchr (line, '\n', max_len);
       size_t line_len = newline ? newline - line + 1 : max_len;
 
@@ -1750,85 +2073,53 @@ lex_source_try_get__ (struct lex_source *src)
       src->journal_pos += line_len;
     }
 
-  token->token_len = state.seg_pos - src->seg_pos;
-
-  src->segmenter = state.segmenter;
-  src->seg_pos = state.seg_pos;
-  src->line_pos = state.line_pos;
-  src->n_newlines += state.newlines;
-
-  switch (token->token.type)
+  switch (result)
     {
-    default:
-      return true;
-
-    case T_STOP:
-      token->token.type = T_ENDCMD;
-      src->eof = true;
-      return true;
-
-    case SCAN_BAD_HEX_LENGTH:
-    case SCAN_BAD_HEX_DIGIT:
-    case SCAN_BAD_UNICODE_DIGIT:
-    case SCAN_BAD_UNICODE_LENGTH:
-    case SCAN_BAD_UNICODE_CODE_POINT:
-    case SCAN_EXPECTED_QUOTE:
-    case SCAN_EXPECTED_EXPONENT:
-    case SCAN_UNEXPECTED_CHAR:
-      char *msg = scan_token_to_error (&token->token);
-      lex_get_error (src, msg);
-      free (msg);
+    case TOKENIZE_ERROR:
+      lex_get_error (src, token);
+      /* Fall through. */
+    case TOKENIZE_EMPTY:
+      lex_token_destroy (token);
       return false;
 
-    case SCAN_SKIP:
-      lex_source_pop_front (src);
-      return false;
+    case TOKENIZE_TOKEN:
+      if (token->token.type == T_STOP)
+        {
+          token->token.type = T_ENDCMD;
+          src->eof = true;
+        }
+      lex_stage_push_last (&src->pp, token);
+      return true;
     }
-
   NOT_REACHED ();
 }
 
-/* Attempts to add a new token at the front of SRC.  Returns true if
-   successful, false on failure.  On failure, the end of SRC has been reached
-   and no more tokens will be forthcoming from it.
+/* Attempts to append a new token to SRC.  Returns true if successful, false on
+   failure.  On failure, the end of SRC has been reached and no more tokens
+   will be forthcoming from it.
 
    Does not make the new token available for lookahead yet; the caller must
    adjust SRC's 'middle' pointer to do so. */
 static bool
-lex_source_get__ (struct lex_source *src)
+lex_source_get_pp (struct lex_source *src)
 {
   while (!src->eof)
-    if (lex_source_try_get__ (src))
+    if (lex_source_try_get_pp (src))
       return true;
   return false;
 }
 
-/* Attempts to obtain a new token for SRC, in particular expanding the number
-   of lookahead tokens (the tokens between 'back' and 'middle').
-
-   Returns true if successful, false on failure.  In the latter case, SRC is
-   exhausted and 'src->eof' is now true. */
 static bool
-lex_source_get (const struct lex_source *src_)
+lex_source_try_get_merge (const struct lex_source *src_)
 {
   struct lex_source *src = CONST_CAST (struct lex_source *, src_);
 
-  /* In the common case, call into the scanner and segmenter to obtain a new
-     token between 'middle' and 'front'.  In the uncommon case, there can be one
-     or a few tokens there already, leftovers from a macro expansion.
-
-     If we call into the scanner and it fails, then we've hit EOF and we're
-     done. */
-  if (src->front - src->middle == 0 && !lex_source_get__ (src))
+  if (lex_stage_is_empty (&src->pp) && !lex_source_get_pp (src))
     return false;
 
-  /* We have at least one token available between 'middle' and 'front'.
-
-     The remaining complication is all about macro expansion.  If macro
-     expansion is disabled, we're done.  */
   if (!settings_get_mexpand ())
     {
-      src->middle++;
+      lex_stage_shift (&src->merge, &src->pp, lex_stage_count (&src->pp));
       return true;
     }
 
@@ -1837,35 +2128,26 @@ lex_source_get (const struct lex_source *src_)
      In the common case where there is no macro to expand, the loop is not
      entered.  */
   struct macro_call *mc;
-  int n_call = macro_call_create (
-    src->lexer->macros, &src->tokens[src->middle & src->mask].token,
-    &mc);
-  for (int middle_ofs = 1; !n_call; middle_ofs++)
+  int n_call = macro_call_create (src->lexer->macros,
+                                  &lex_stage_first (&src->pp)->token, &mc);
+  for (int ofs = 1; !n_call; ofs++)
     {
-      if (src->front - src->middle <= middle_ofs && !lex_source_get__ (src))
+      if (lex_stage_count (&src->pp) <= ofs && !lex_source_get_pp (src))
         {
           /* This should not be reachable because we always get a T_ENDCMD at
              the end of an input file (transformed from T_STOP by
-             lex_source_try_get__()) and the macro_expander should always
+             lex_source_try_get_pp()) and the macro_expander should always
              terminate expansion on T_ENDCMD. */
           NOT_REACHED ();
         }
 
-      const struct lex_token *t = &src->tokens[(src->middle + middle_ofs)
-                                               & src->mask];
-      size_t start = t->token_pos;
-      size_t end = t->token_pos + t->token_len;
+      const struct lex_token *t = lex_stage_nth (&src->pp, ofs);
       const struct macro_token mt = {
         .token = t->token,
-        .syntax = ss_buffer (&src->buffer[start - src->tail], end - start),
+        .syntax = ss_buffer (&src->buffer[t->token_pos], t->token_len),
       };
-
-      /* We temporarily add the tokens to the source to avoid re-entry if
-         macro_expander_add() reports an error and to give better error
-         messages. */
-      src->middle += middle_ofs + 1;
-      n_call = macro_call_add (mc, &mt);
-      src->middle -= middle_ofs + 1;
+      const struct msg_location loc = lex_token_location (src, t, t);
+      n_call = macro_call_add (mc, &mt, &loc);
     }
   if (n_call < 0)
     {
@@ -1873,24 +2155,22 @@ lex_source_get (const struct lex_source *src_)
          lookahead.  We'll retry macro expansion from the second token next
          time around. */
       macro_call_destroy (mc);
-      src->middle++;
+      lex_stage_shift (&src->merge, &src->pp, 1);
       return true;
     }
 
-  /* Now expand the macro.
-
-     We temporarily add the macro call's tokens to the source in case the macro
-     expansion calls msg() to report an error and error processing tries to get
-     the location of the error with, e.g. lex_get_first_line_number(), which
-     would re-enter this code.  This is a kluge; it might be cleaner to pass
-     the line number into macro_expander_get_expansion(). */
-  src->middle += n_call;
+  /* The first 'n_call' tokens in 'pp', which we bracket as C0...C1, inclusive,
+     are a macro call.  (These are likely to be the only tokens in 'pp'.)
+     Expand them.  */
+  const struct lex_token *c0 = lex_stage_first (&src->pp);
+  const struct lex_token *c1 = lex_stage_nth (&src->pp, n_call - 1);
   struct macro_tokens expansion = { .n = 0 };
-  macro_call_expand (mc, src->reader->syntax, &expansion);
+  struct msg_location loc = lex_token_location (src, c0, c1);
+  macro_call_expand (mc, src->reader->syntax, &loc, &expansion);
   macro_call_destroy (mc);
-  src->middle -= n_call;
 
-  /* Convert the macro expansion into syntax for possible error messages later. */
+  /* Convert the macro expansion into syntax for possible error messages
+     later. */
   size_t *ofs = xnmalloc (expansion.n, sizeof *ofs);
   size_t *len = xnmalloc (expansion.n, sizeof *len);
   struct string s = DS_EMPTY_INITIALIZER;
@@ -1900,80 +2180,157 @@ lex_source_get (const struct lex_source *src_)
     output_item_submit (text_item_create (TEXT_ITEM_LOG, ds_cstr (&s),
                                           _("Macro Expansion")));
 
-  /* The first 'n_call' tokens starting at 'middle' will be replaced by the
-     macro expansion.  There might be more tokens after that, up to 'front'.
-
-     Figure out the boundary of the macro call in the syntax, to go into the
-     lex_tokens for the expansion so that later error messages can report what
-     macro was called. */
-  const struct lex_token *call_first = &src->tokens[src->middle & src->mask];
-  const struct lex_token *call_last
-    = &src->tokens[(src->middle + n_call - 1) & src->mask];
-  size_t call_pos = call_first->token_pos;
-  size_t call_len = (call_last->token_pos + call_last->token_len) - call_pos;
-  size_t line_pos = call_first->line_pos;
-  int first_line = call_first->first_line;
-
-  /* Destroy the tokens for the call, and save any tokens following the call so
-     we can add them back later. */
-  for (size_t i = src->middle; i != src->middle + n_call; i++)
-    lex_token_uninit (&src->tokens[i & src->mask]);
-  size_t n_save = src->front - (src->middle + n_call);
-  struct lex_token *save_tokens = xnmalloc (n_save, sizeof *save_tokens);
-  for (size_t i = 0; i < n_save; i++)
-    save_tokens[i] = src->tokens[(src->middle + n_call + i) & src->mask];
-  src->front = src->middle;
-
   /* Append the macro expansion tokens to the lookahead. */
-  char *macro_rep = ds_steal_cstr (&s);
-  size_t *ref_cnt = xmalloc (sizeof *ref_cnt);
-  *ref_cnt = expansion.n;
-  for (size_t i = 0; i < expansion.n; i++)
+  if (expansion.n > 0)
     {
-      *lex_push_token__ (src) = (struct lex_token) {
-        .token = expansion.mts[i].token,
-        .token_pos = call_pos,
-        .token_len = call_len,
-        .line_pos = line_pos,
-        .first_line = first_line,
-        .macro_rep = macro_rep,
-        .ofs = ofs[i],
-        .len = len[i],
-        .ref_cnt = ref_cnt,
-      };
-      src->middle++;
-
-      ss_dealloc (&expansion.mts[i].syntax);
+      char *macro_rep = ds_steal_cstr (&s);
+      size_t *ref_cnt = xmalloc (sizeof *ref_cnt);
+      *ref_cnt = expansion.n;
+      for (size_t i = 0; i < expansion.n; i++)
+        {
+          struct lex_token *token = xmalloc (sizeof *token);
+          *token = (struct lex_token) {
+            .token = expansion.mts[i].token,
+            .token_pos = c0->token_pos,
+            .token_len = (c1->token_pos + c1->token_len) - c0->token_pos,
+            .macro_rep = macro_rep,
+            .ofs = ofs[i],
+            .len = len[i],
+            .ref_cnt = ref_cnt,
+          };
+          lex_stage_push_last (&src->merge, token);
+
+          ss_dealloc (&expansion.mts[i].syntax);
+        }
     }
+  else
+    ds_destroy (&s);
   free (expansion.mts);
   free (ofs);
   free (len);
 
-  /* Finally, put the saved tokens back. */
-  for (size_t i = 0; i < n_save; i++)
-    *lex_push_token__ (src) = save_tokens[i];
-  free (save_tokens);
+  /* Destroy the tokens for the call. */
+  for (size_t i = 0; i < n_call; i++)
+    lex_stage_pop_first (&src->pp);
+
+  return expansion.n > 0;
+}
+
+/* Attempts to obtain at least one new token into 'merge' in SRC.
+
+   Returns true if successful, false on failure.  In the latter case, SRC is
+   exhausted and 'src->eof' is now true. */
+static bool
+lex_source_get_merge (struct lex_source *src)
+{
+  while (!src->eof)
+    if (lex_source_try_get_merge (src))
+      return true;
+  return false;
+}
+
+/* Attempts to obtain at least one new token into 'lookahead' in SRC.
+
+   Returns true if successful, false on failure.  In the latter case, SRC is
+   exhausted and 'src->eof' is now true. */
+static bool
+lex_source_get_parse (struct lex_source *src)
+{
+  struct merger m = MERGER_INIT;
+  struct token out;
+  for (size_t i = 0; ; i++)
+    {
+      while (lex_stage_count (&src->merge) <= i && !lex_source_get_merge (src))
+        {
+          /* We always get a T_ENDCMD at the end of an input file
+             (transformed from T_STOP by lex_source_try_get_pp()) and
+             merger_add() should never return -1 on T_ENDCMD. */
+          assert (lex_stage_is_empty (&src->merge));
+          return false;
+        }
 
-  return true;
+      int retval = merger_add (&m, &lex_stage_nth (&src->merge, i)->token,
+                               &out);
+      if (!retval)
+        {
+          lex_source_push_parse (src, lex_stage_take_first (&src->merge));
+          return true;
+        }
+      else if (retval > 0)
+        {
+          /* Add a token that merges all the tokens together. */
+          const struct lex_token *first = lex_stage_first (&src->merge);
+          const struct lex_token *last = lex_stage_nth (&src->merge,
+                                                        retval - 1);
+          bool macro = first->macro_rep && first->macro_rep == last->macro_rep;
+          struct lex_token *t = xmalloc (sizeof *t);
+          *t = (struct lex_token) {
+            .token = out,
+            .token_pos = first->token_pos,
+            .token_len = (last->token_pos - first->token_pos) + last->token_len,
+
+            /* This works well if all the tokens were not expanded from macros,
+               or if they came from the same macro expansion.  It just gives up
+               in the other (corner) cases. */
+            .macro_rep = macro ? first->macro_rep : NULL,
+            .ofs = macro ? first->ofs : 0,
+            .len = macro ? (last->ofs - first->ofs) + last->len : 0,
+            .ref_cnt = macro ? first->ref_cnt : NULL,
+          };
+          if (t->ref_cnt)
+            ++*t->ref_cnt;
+          lex_source_push_parse (src, t);
+
+          for (int i = 0; i < retval; i++)
+            lex_stage_pop_first (&src->merge);
+          return true;
+        }
+    }
 }
 \f
 static void
 lex_source_push_endcmd__ (struct lex_source *src)
 {
-  assert (src->back == src->middle && src->middle == src->front);
-  *lex_push_token__ (src) = (struct lex_token) {
-    .token = { .type = T_ENDCMD } };
-  src->middle++;
+  assert (src->n_parse == 0);
+
+  struct lex_token *token = xmalloc (sizeof *token);
+  *token = (struct lex_token) { .token = { .type = T_ENDCMD } };
+  lex_source_push_parse (src, token);
+}
+
+static void
+lex_source_push_parse (struct lex_source *src, struct lex_token *token)
+{
+  if (src->n_parse >= src->allocated_parse)
+    src->parse = x2nrealloc (src->parse, &src->allocated_parse,
+                             sizeof *src->parse);
+  src->parse[src->n_parse++] = token;
+}
+
+static void
+lex_source_clear_parse (struct lex_source *src)
+{
+  for (size_t i = 0; i < src->n_parse; i++)
+    lex_token_destroy (src->parse[i]);
+  src->n_parse = src->parse_ofs = 0;
 }
 
 static struct lex_source *
 lex_source_create (struct lexer *lexer, struct lex_reader *reader)
 {
+  size_t allocated_lines = 4;
+  size_t *lines = xmalloc (allocated_lines * sizeof *lines);
+  *lines = 0;
+
   struct lex_source *src = xmalloc (sizeof *src);
   *src = (struct lex_source) {
+    .n_refs = 1,
     .reader = reader,
     .segmenter = segmenter_init (reader->syntax, false),
     .lexer = lexer,
+    .lines = lines,
+    .n_lines = 1,
+    .allocated_lines = allocated_lines,
   };
 
   lex_source_push_endcmd__ (src);
@@ -1981,9 +2338,42 @@ lex_source_create (struct lexer *lexer, struct lex_reader *reader)
   return src;
 }
 
-static void
-lex_source_destroy (struct lex_source *src)
+void
+lex_set_message_handler (struct lexer *lexer,
+                         void (*output_msg) (const struct msg *,
+                                             struct lexer *))
+{
+  struct msg_handler msg_handler = {
+    .output_msg = (void (*)(const struct msg *, void *)) output_msg,
+    .aux = lexer,
+    .lex_source_ref = lex_source_ref,
+    .lex_source_unref = lex_source_unref,
+    .lex_source_get_line = lex_source_get_line,
+  };
+  msg_set_handler (&msg_handler);
+}
+
+void
+lex_source_ref (const struct lex_source *src_)
 {
+  struct lex_source *src = CONST_CAST (struct lex_source *, src_);
+  if (src)
+    {
+      assert (src->n_refs > 0);
+      src->n_refs++;
+    }
+}
+
+void
+lex_source_unref (struct lex_source *src)
+{
+  if (!src)
+    return;
+
+  assert (src->n_refs > 0);
+  if (--src->n_refs > 0)
+    return;
+
   char *file_name = src->reader->file_name;
   char *encoding = src->reader->encoding;
   if (src->reader->class->destroy != NULL)
@@ -1991,12 +2381,11 @@ lex_source_destroy (struct lex_source *src)
   free (file_name);
   free (encoding);
   free (src->buffer);
-  while (src->middle - src->back > 0)
-    lex_source_pop_back (src);
-  while (src->front - src->middle > 0)
-    lex_source_pop_front (src);
-  free (src->tokens);
-  ll_remove (&src->ll);
+  free (src->lines);
+  lex_stage_uninit (&src->pp);
+  lex_stage_uninit (&src->merge);
+  lex_source_clear_parse (src);
+  free (src->parse);
   free (src);
 }
 \f
@@ -2172,3 +2561,14 @@ static struct lex_reader_class lex_string_reader_class =
     lex_string_read,
     lex_string_close
   };
+\f
+struct substring
+lex_source_get_line (const struct lex_source *src, int line)
+{
+  if (line < 1 || line > src->n_lines)
+    return ss_empty ();
+
+  size_t ofs = src->lines[line - 1];
+  size_t end = line >= src->n_lines ? src->length : src->lines[line];
+  return ss_buffer (&src->buffer[ofs], end - ofs);
+}