35e0a7a94cb6d1382eb59d9237364e9e3f1c1f99
[pspp] / src / output / render.c
1 /* PSPP - a program for statistical analysis.
2    Copyright (C) 2009, 2010, 2011, 2013, 2014 Free Software Foundation, Inc.
3
4    This program is free software: you can redistribute it and/or modify
5    it under the terms of the GNU General Public License as published by
6    the Free Software Foundation, either version 3 of the License, or
7    (at your option) any later version.
8
9    This program is distributed in the hope that it will be useful,
10    but WITHOUT ANY WARRANTY; without even the implied warranty of
11    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
12    GNU General Public License for more details.
13
14    You should have received a copy of the GNU General Public License
15    along with this program.  If not, see <http://www.gnu.org/licenses/>. */
16
17 #include <config.h>
18
19 #include <math.h>
20 #include <stdio.h>
21 #include <stdlib.h>
22 #include <string.h>
23
24 #include "libpspp/assertion.h"
25 #include "libpspp/hash-functions.h"
26 #include "libpspp/hmap.h"
27 #include "output/render.h"
28 #include "output/table.h"
29
30 #include "gl/minmax.h"
31 #include "gl/xalloc.h"
32
33 /* This file uses TABLE_HORZ and TABLE_VERT enough to warrant abbreviating. */
34 #define H TABLE_HORZ
35 #define V TABLE_VERT
36 \f
37 /* A layout for rendering a specific table on a specific device.
38
39    May represent the layout of an entire table presented to
40    render_page_create(), or a rectangular subregion of a table broken out using
41    render_break_next() to allow a table to be broken across multiple pages. */
42 struct render_page
43   {
44     const struct render_params *params; /* Parameters of the target device. */
45     struct table *table;                /* Table rendered. */
46     int ref_cnt;
47
48     /* Local copies of table->n and table->h, for convenience. */
49     int n[TABLE_N_AXES];
50     int h[TABLE_N_AXES][2];
51
52     /* cp[H] represents x positions within the table.
53        cp[H][0] = 0.
54        cp[H][1] = the width of the leftmost vertical rule.
55        cp[H][2] = cp[H][1] + the width of the leftmost column.
56        cp[H][3] = cp[H][2] + the width of the second-from-left vertical rule.
57        and so on:
58        cp[H][2 * nc] = x position of the rightmost vertical rule.
59        cp[H][2 * nc + 1] = total table width including all rules.
60
61        Similarly, cp[V] represents y positions within the table.
62        cp[V][0] = 0.
63        cp[V][1] = the height of the topmost horizontal rule.
64        cp[V][2] = cp[V][1] + the height of the topmost row.
65        cp[V][3] = cp[V][2] + the height of the second-from-top horizontal rule.
66        and so on:
67        cp[V][2 * nr] = y position of the bottommost horizontal rule.
68        cp[V][2 * nr + 1] = total table height including all rules.
69
70        Rules and columns can have width or height 0, in which case consecutive
71        values in this array are equal. */
72     int *cp[TABLE_N_AXES];
73
74     /* render_break_next() can break a table such that some cells are not fully
75        contained within a render_page.  This will happen if a cell is too wide
76        or two tall to fit on a single page, or if a cell spans multiple rows or
77        columns and the page only includes some of those rows or columns.
78
79        This hash table contains "struct render_overflow"s that represents each
80        such cell that doesn't completely fit on this page.
81
82        Each overflow cell borders at least one header edge of the table and may
83        border more.  (A single table cell that is so large that it fills the
84        entire page can overflow on all four sides!) */
85     struct hmap overflows;
86
87     /* If a single column (or row) is too wide (or tall) to fit on a page
88        reasonably, then render_break_next() will split a single row or column
89        across multiple render_pages.  This member indicates when this has
90        happened:
91
92        is_edge_cutoff[H][0] is true if pixels have been cut off the left side
93        of the leftmost column in this page, and false otherwise.
94
95        is_edge_cutoff[H][1] is true if pixels have been cut off the right side
96        of the rightmost column in this page, and false otherwise.
97
98        is_edge_cutoff[V][0] and is_edge_cutoff[V][1] are similar for the top
99        and bottom of the table.
100
101        The effect of is_edge_cutoff is to prevent rules along the edge in
102        question from being rendered.
103
104        When is_edge_cutoff is true for a given edge, the 'overflows' hmap will
105        contain a node for each cell along that edge. */
106     bool is_edge_cutoff[TABLE_N_AXES][2];
107
108     /* If part of a joined cell would be cut off by breaking a table along
109        'axis' at the rule with offset 'z' (where 0 <= z <= n[axis]), then
110        join_crossing[axis][z] is the thickness of the rule that would be cut
111        off.
112
113        This is used to know to allocate extra space for breaking at such a
114        position, so that part of the cell's content is not lost.
115
116        This affects breaking a table only when headers are present.  When
117        headers are not present, the rule's thickness is used for cell content,
118        so no part of the cell's content is lost (and in fact it is duplicated
119        across both pages). */
120     int *join_crossing[TABLE_N_AXES];
121   };
122
123 /* Returns the offset in struct render_page's cp[axis] array of the rule with
124    index RULE_IDX.  That is, if RULE_IDX is 0, then the offset is that of the
125    leftmost or topmost rule; if RULE_IDX is 1, then the offset is that of the
126    next rule to the right (or below); and so on. */
127 static int
128 rule_ofs (int rule_idx)
129 {
130   return rule_idx * 2;
131 }
132
133 /* Returns the offset in struct render_page's cp[axis] array of the rule with
134    index RULE_IDX_R, which counts from the right side (or bottom) of the page
135    left (or up), according to whether AXIS is H or V, respectively.  That is,
136    if RULE_IDX_R is 0, then the offset is that of the rightmost or bottommost
137    rule; if RULE_IDX is 1, then the offset is that of the next rule to the left
138    (or above); and so on. */
139 static int
140 rule_ofs_r (const struct render_page *page, int axis, int rule_idx_r)
141 {
142   return (page->n[axis] - rule_idx_r) * 2;
143 }
144
145 /* Returns the offset in struct render_page's cp[axis] array of the cell with
146    index CELL_IDX.  That is, if CELL_IDX is 0, then the offset is that of the
147    leftmost or topmost cell; if CELL_IDX is 1, then the offset is that of the
148    next cell to the right (or below); and so on. */
149 static int
150 cell_ofs (int cell_idx)
151 {
152   return cell_idx * 2 + 1;
153 }
154
155 /* Returns the width of PAGE along AXIS from OFS0 to OFS1, exclusive. */
156 static int
157 axis_width (const struct render_page *page, int axis, int ofs0, int ofs1)
158 {
159   return page->cp[axis][ofs1] - page->cp[axis][ofs0];
160 }
161
162 /* Returns the width of the headers in PAGE along AXIS. */
163 static int
164 headers_width (const struct render_page *page, int axis)
165 {
166   int h0 = page->h[axis][0];
167   int w0 = axis_width (page, axis, rule_ofs (0), cell_ofs (h0));
168   int n = page->n[axis];
169   int h1 = page->h[axis][1];
170   int w1 = axis_width (page, axis, rule_ofs_r (page, axis, h1), cell_ofs (n));
171   return w0 + w1;
172 }
173
174 /* Returns the width of cell X along AXIS in PAGE. */
175 static int
176 cell_width (const struct render_page *page, int axis, int x)
177 {
178   return axis_width (page, axis, cell_ofs (x), cell_ofs (x) + 1);
179 }
180
181 /* Returns the width of rule X along AXIS in PAGE. */
182 static int
183 rule_width (const struct render_page *page, int axis, int x)
184 {
185   return axis_width (page, axis, rule_ofs (x), rule_ofs (x) + 1);
186 }
187
188 /* Returns the width of rule X along AXIS in PAGE. */
189 static int
190 rule_width_r (const struct render_page *page, int axis, int x)
191 {
192   int ofs = rule_ofs_r (page, axis, x);
193   return axis_width (page, axis, ofs, ofs + 1);
194 }
195
196 /* Returns the width of cells X0 through X1, exclusive, along AXIS in PAGE. */
197 static int
198 joined_width (const struct render_page *page, int axis, int x0, int x1)
199 {
200   return axis_width (page, axis, cell_ofs (x0), cell_ofs (x1) - 1);
201 }
202
203 /* Returns the width of the widest cell, excluding headers, along AXIS in
204    PAGE. */
205 static int
206 max_cell_width (const struct render_page *page, int axis)
207 {
208   int n = page->n[axis];
209   int x0 = page->h[axis][0];
210   int x1 = n - page->h[axis][1];
211   int x, max;
212
213   max = 0;
214   for (x = x0; x < x1; x++)
215     {
216       int w = cell_width (page, axis, x);
217       if (w > max)
218         max = w;
219     }
220   return max;
221 }
222 \f
223 /* A cell that doesn't completely fit on the render_page. */
224 struct render_overflow
225   {
226     struct hmap_node node;      /* In render_page's 'overflows' hmap. */
227
228     /* Occupied region of page.
229
230        d[H][0] is the leftmost column.
231        d[H][1] is the rightmost column, plus 1.
232        d[V][0] is the top row.
233        d[V][1] is the bottom row, plus 1.
234
235        The cell in its original table might occupy a larger region.  This
236        member reflects the size of the cell in the current render_page, after
237        trimming off any rows or columns due to page-breaking. */
238     int d[TABLE_N_AXES];
239
240     /* The space that has been trimmed off the cell:
241
242        overflow[H][0]: space trimmed off its left side.
243        overflow[H][1]: space trimmed off its right side.
244        overflow[V][0]: space trimmed off its top.
245        overflow[V][1]: space trimmed off its bottom.
246
247        During rendering, this information is used to position the rendered
248        portion of the cell within the available space.
249
250        When a cell is rendered, sometimes it is permitted to spill over into
251        space that is ordinarily reserved for rules.  Either way, this space is
252        still included in overflow values.
253
254        Suppose, for example, that a cell that joins 2 columns has a width of 60
255        pixels and content "abcdef", that the 2 columns that it joins have
256        widths of 20 and 30 pixels, respectively, and that therefore the rule
257        between the two joined columns has a width of 10 (20 + 10 + 30 = 60).
258        It might render like this, if each character is 10x10, and showing a few
259        extra table cells for context:
260
261                                      +------+
262                                      |abcdef|
263                                      +--+---+
264                                      |gh|ijk|
265                                      +--+---+
266
267        If this render_page is broken at the rule that separates "gh" from
268        "ijk", then the page that contains the left side of the "abcdef" cell
269        will have overflow[H][1] of 10 + 30 = 40 for its portion of the cell,
270        and the page that contains the right side of the cell will have
271        overflow[H][0] of 20 + 10 = 30.  The two resulting pages would look like
272        this:
273
274
275                                        +---
276                                        |abc
277                                        +--+
278                                        |gh|
279                                        +--+
280
281        and:
282
283                                        ----+
284                                        cdef|
285                                        +---+
286                                        |ijk|
287                                        +---+
288     */
289     int overflow[TABLE_N_AXES][2];
290   };
291
292 /* Returns a hash value for (X,Y). */
293 static unsigned int
294 hash_overflow (int x, int y)
295 {
296   return hash_int (x + (y << 16), 0);
297 }
298
299 /* Searches PAGE's set of render_overflow for one whose top-left cell is
300    (X,Y).  Returns it, if there is one, otherwise a null pointer. */
301 static const struct render_overflow *
302 find_overflow (const struct render_page *page, int x, int y)
303 {
304   if (!hmap_is_empty (&page->overflows))
305     {
306       const struct render_overflow *of;
307
308       HMAP_FOR_EACH_WITH_HASH (of, struct render_overflow, node,
309                                hash_overflow (x, y), &page->overflows)
310         if (x == of->d[H] && y == of->d[V])
311           return of;
312     }
313
314   return NULL;
315 }
316 \f
317 /* Row or column dimensions.  Used to figure the size of a table in
318    render_page_create() and discarded after that. */
319 struct render_row
320   {
321     /* Width without considering rows (or columns) that span more than one (or
322        column). */
323     int unspanned;
324
325     /* Width taking spanned rows (or columns) into consideration. */
326     int width;
327   };
328
329 /* Modifies the 'width' members of the N elements of ROWS so that their sum,
330    when added to rule widths RULES[1] through RULES[N - 1] inclusive, is at
331    least WIDTH. */
332 static void
333 distribute_spanned_width (int width,
334                           struct render_row *rows, const int *rules, int n)
335 {
336   int total_unspanned;
337   double w, d0, d1, d;
338   int x;
339
340   /* Sum up the unspanned widths of the N rows for use as weights. */
341   total_unspanned = 0;
342   for (x = 0; x < n; x++)
343     total_unspanned += rows[x].unspanned;
344   for (x = 0; x < n - 1; x++)
345     total_unspanned += rules[x + 1];
346   if (total_unspanned >= width)
347     return;
348
349   /* The algorithm used here is based on the following description from HTML 4:
350
351          For cells that span multiple columns, a simple approach consists of
352          apportioning the min/max widths evenly to each of the constituent
353          columns.  A slightly more complex approach is to use the min/max
354          widths of unspanned cells to weight how spanned widths are
355          apportioned.  Experiments suggest that a blend of the two approaches
356          gives good results for a wide range of tables.
357
358      We blend the two approaches half-and-half, except that we cannot use the
359      unspanned weights when 'total_unspanned' is 0 (because that would cause a
360      division by zero).
361
362      This implementation uses floating-point types and operators, but all the
363      values involved are integers.  For integers smaller than 53 bits, this
364      should not lose any precision, and it should degrade gracefully for larger
365      values.
366
367      The calculation we want to do is this:
368
369         w0 = width / n
370         w1 = width * (column's unspanned width) / (total unspanned width)
371         (column's width) = (w0 + w1) / 2
372
373      We implement it as a precise calculation in integers by multiplying w0 and
374      w1 by the common denominator of all three calculations (d), dividing that
375      out in the column width calculation, and then keeping the remainder for
376      the next iteration.
377
378      (We actually compute the unspanned width of a column as twice the
379      unspanned width, plus the width of the rule on the left, plus the width of
380      the rule on the right.  That way each rule contributes to both the cell on
381      its left and on its right.)
382   */
383   d0 = n;
384   d1 = 2.0 * (total_unspanned > 0 ? total_unspanned : 1.0);
385   d = d0 * d1;
386   if (total_unspanned > 0)
387     d *= 2.0;
388   w = floor (d / 2.0);
389   for (x = 0; x < n; x++)
390     {
391       w += width * d1;
392       if (total_unspanned > 0)
393         {
394           double unspanned = rows[x].unspanned * 2.0;
395           if (x < n - 1)
396             unspanned += rules[x + 1];
397           if (x > 0)
398             unspanned += rules[x];
399           w += width * unspanned * d0;
400         }
401
402       rows[x].width = MAX (rows[x].width, w / d);
403       w -= rows[x].width * d;
404     }
405 }
406
407 /* Initializes PAGE->cp[AXIS] from the row widths in ROWS and the rule widths
408    in RULES. */
409 static void
410 accumulate_row_widths (const struct render_page *page, enum table_axis axis,
411                        const struct render_row *rows, const int *rules)
412 {
413   int n = page->n[axis];
414   int *cp;
415   int z;
416
417   cp = page->cp[axis];
418   cp[0] = 0;
419   for (z = 0; z < n; z++)
420     {
421       cp[1] = cp[0] + rules[z];
422       cp[2] = cp[1] + rows[z].width;
423       cp += 2;
424     }
425   cp[1] = cp[0] + rules[n];
426 }
427
428 /* Returns the sum of widths of the N ROWS and N+1 RULES. */
429 static int
430 calculate_table_width (int n, const struct render_row *rows, int *rules)
431 {
432   int width;
433   int x;
434
435   width = 0;
436   for (x = 0; x < n; x++)
437     width += rows[x].width;
438   for (x = 0; x <= n; x++)
439     width += rules[x];
440
441   return width;
442 }
443 \f
444 /* Rendering utility functions. */
445
446 /* Returns the line style to use for drawing a rule of the given TYPE. */
447 static enum render_line_style
448 rule_to_render_type (unsigned char type)
449 {
450   switch (type)
451     {
452     case TAL_0:
453     case TAL_GAP:
454       return RENDER_LINE_NONE;
455     case TAL_1:
456       return RENDER_LINE_SINGLE;
457     case TAL_2:
458       return RENDER_LINE_DOUBLE;
459     default:
460       NOT_REACHED ();
461     }
462 }
463
464 /* Returns the width of the rule in TABLE that is at offset Z along axis A, if
465    rendered with PARAMS.  */
466 static int
467 measure_rule (const struct render_params *params, const struct table *table,
468               enum table_axis a, int z)
469 {
470   enum table_axis b = !a;
471   unsigned int rules;
472   int d[TABLE_N_AXES];
473   int width;
474
475   /* Determine all types of rules that are present, as a bitmap in 'rules'
476      where rule type 't' is present if bit 2**t is set. */
477   rules = 0;
478   d[a] = z;
479   for (d[b] = 0; d[b] < table->n[b]; d[b]++)
480     rules |= 1u << table_get_rule (table, a, d[H], d[V]);
481
482   /* Calculate maximum width of the rules that are present. */
483   width = 0;
484   if (rules & (1u << TAL_1)
485       || (z > 0 && z < table->n[a] && rules & (1u << TAL_GAP)))
486     width = params->line_widths[a][RENDER_LINE_SINGLE];
487   if (rules & (1u << TAL_2))
488     width = MAX (width, params->line_widths[a][RENDER_LINE_DOUBLE]);
489   return width;
490 }
491
492 /* Allocates and returns a new render_page using PARAMS and TABLE.  Allocates
493    space for all of the members of the new page, but the caller must initialize
494    the 'cp' member itself. */
495 static struct render_page *
496 render_page_allocate (const struct render_params *params,
497                       struct table *table)
498 {
499   struct render_page *page;
500   int i;
501
502   page = xmalloc (sizeof *page);
503   page->params = params;
504   page->table = table;
505   page->ref_cnt = 1;
506   page->n[H] = table->n[H];
507   page->n[V] = table->n[V];
508   page->h[H][0] = table->h[H][0];
509   page->h[H][1] = table->h[H][1];
510   page->h[V][0] = table->h[V][0];
511   page->h[V][1] = table->h[V][1];
512
513   for (i = 0; i < TABLE_N_AXES; i++)
514     {
515       page->cp[i] = xmalloc ((2 * page->n[i] + 2) * sizeof *page->cp[i]);
516       page->join_crossing[i] = xzalloc ((page->n[i] + 1) * sizeof *page->join_crossing[i]);
517     }
518
519   hmap_init (&page->overflows);
520   memset (page->is_edge_cutoff, 0, sizeof page->is_edge_cutoff);
521
522   return page;
523 }
524
525 /* Allocates and returns a new render_page for PARAMS and TABLE, initializing
526    cp[H] in the new page from ROWS and RULES.  The caller must still initialize
527    cp[V]. */
528 static struct render_page *
529 create_page_with_exact_widths (const struct render_params *params,
530                                struct table *table,
531                                const struct render_row *rows, int *rules)
532 {
533   struct render_page *page = render_page_allocate (params, table);
534   accumulate_row_widths (page, H, rows, rules);
535   return page;
536 }
537
538 /* Allocates and returns a new render_page for PARAMS and TABLE.
539
540    Initializes cp[H] in the new page by setting the width of each row 'i' to
541    somewhere between the minimum cell width ROW_MIN[i].width and the maximum
542    ROW_MAX[i].width.  Sets the width of rules to those in RULES.
543
544    W_MIN is the sum of ROWS_MIN[].width.
545
546    W_MAX is the sum of ROWS_MAX[].width.
547
548    The caller must still initialize cp[V]. */
549 static struct render_page *
550 create_page_with_interpolated_widths (const struct render_params *params,
551                                       struct table *table,
552                                       const struct render_row *rows_min,
553                                       const struct render_row *rows_max,
554                                       int w_min, int w_max, const int *rules)
555 {
556   /* This implementation uses floating-point types and operators, but all the
557      values involved are integers.  For integers smaller than 53 bits, this
558      should not lose any precision, and it should degrade gracefully for larger
559      values. */
560   const int n = table->n[H];
561   const double avail = params->size[H] - w_min;
562   const double wanted = w_max - w_min;
563   struct render_page *page;
564   double w;
565   int *cph;
566   int x;
567
568   assert (wanted > 0);
569
570   page = render_page_allocate (params, table);
571
572   cph = page->cp[H];
573   *cph = 0;
574   w = (int) wanted / 2;
575   for (x = 0; x < n; x++)
576     {
577       int extra;
578
579       w += avail * (rows_max[x].width - rows_min[x].width);
580       extra = w / wanted;
581       w -= extra * wanted;
582
583       cph[1] = cph[0] + rules[x];
584       cph[2] = cph[1] + rows_min[x].width + extra;
585       cph += 2;
586     }
587   cph[1] = cph[0] + rules[n];
588
589   assert (page->cp[H][n * 2 + 1] == params->size[H]);
590   return page;
591 }
592
593 \f
594 static void
595 set_join_crossings (struct render_page *page, enum table_axis axis,
596                     const struct table_cell *cell, int *rules)
597 {
598   int z;
599
600   for (z = cell->d[axis][0] + 1; z <= cell->d[axis][1] - 1; z++)
601     page->join_crossing[axis][z] = rules[z];
602 }
603
604 /* Creates and returns a new render_page for rendering TABLE on a device
605    described by PARAMS.
606
607    The new render_page will be suitable for rendering on a device whose page
608    size is PARAMS->size, but the caller is responsible for actually breaking it
609    up to fit on such a device, using the render_break abstraction.  */
610 struct render_page *
611 render_page_create (const struct render_params *params,
612                     const struct table *table_)
613 {
614   struct render_page *page;
615   struct table *table;
616   enum { MIN, MAX };
617   struct render_row *columns[2];
618   struct render_row *rows;
619   int table_widths[2];
620   int *rules[TABLE_N_AXES];
621   int nr, nc;
622   int x, y;
623   int i;
624   enum table_axis axis;
625
626   table = table_ref (table_);
627   nc = table_nc (table);
628   nr = table_nr (table);
629
630   /* Figure out rule widths. */
631   for (axis = 0; axis < TABLE_N_AXES; axis++)
632     {
633       int n = table->n[axis] + 1;
634       int z;
635
636       rules[axis] = xnmalloc (n, sizeof *rules);
637       for (z = 0; z < n; z++)
638         rules[axis][z] = measure_rule (params, table, axis, z);
639     }
640
641   /* Calculate minimum and maximum widths of cells that do not
642      span multiple columns. */
643   for (i = 0; i < 2; i++)
644     columns[i] = xzalloc (nc * sizeof *columns[i]);
645   for (y = 0; y < nr; y++)
646     for (x = 0; x < nc; )
647       {
648         struct table_cell cell;
649
650         table_get_cell (table, x, y, &cell);
651         if (y == cell.d[V][0] && table_cell_colspan (&cell) == 1)
652           {
653             int w[2];
654             int i;
655
656             params->measure_cell_width (params->aux, &cell, &w[MIN], &w[MAX]);
657             for (i = 0; i < 2; i++)
658               if (columns[i][x].unspanned < w[i])
659                 columns[i][x].unspanned = w[i];
660           }
661         x = cell.d[H][1];
662         table_cell_free (&cell);
663       }
664
665   /* Distribute widths of spanned columns. */
666   for (i = 0; i < 2; i++)
667     for (x = 0; x < nc; x++)
668       columns[i][x].width = columns[i][x].unspanned;
669   for (y = 0; y < nr; y++)
670     for (x = 0; x < nc; )
671       {
672         struct table_cell cell;
673
674         table_get_cell (table, x, y, &cell);
675         if (y == cell.d[V][0] && table_cell_colspan (&cell) > 1)
676           {
677             int w[2];
678
679             params->measure_cell_width (params->aux, &cell, &w[MIN], &w[MAX]);
680             for (i = 0; i < 2; i++)
681               distribute_spanned_width (w[i], &columns[i][cell.d[H][0]],
682                                         rules[H], table_cell_colspan (&cell));
683           }
684         x = cell.d[H][1];
685         table_cell_free (&cell);
686       }
687
688   /* Decide final column widths. */
689   for (i = 0; i < 2; i++)
690     table_widths[i] = calculate_table_width (table_nc (table),
691                                              columns[i], rules[H]);
692   if (table_widths[MAX] <= params->size[H])
693     {
694       /* Fits even with maximum widths.  Use them. */
695       page = create_page_with_exact_widths (params, table, columns[MAX],
696                                             rules[H]);
697     }
698   else if (table_widths[MIN] <= params->size[H])
699     {
700       /* Fits with minimum widths, so distribute the leftover space. */
701       page = create_page_with_interpolated_widths (
702         params, table, columns[MIN], columns[MAX],
703         table_widths[MIN], table_widths[MAX], rules[H]);
704     }
705   else
706     {
707       /* Doesn't fit even with minimum widths.  Assign minimums for now, and
708          later we can break it horizontally into multiple pages. */
709       page = create_page_with_exact_widths (params, table, columns[MIN],
710                                             rules[H]);
711     }
712
713   /* Calculate heights of cells that do not span multiple rows. */
714   rows = xzalloc (nr * sizeof *rows);
715   for (y = 0; y < nr; y++)
716     {
717       for (x = 0; x < nc; )
718         {
719           struct render_row *r = &rows[y];
720           struct table_cell cell;
721
722           table_get_cell (table, x, y, &cell);
723           if (y == cell.d[V][0])
724             {
725               if (table_cell_rowspan (&cell) == 1)
726                 {
727                   int w = joined_width (page, H, cell.d[H][0], cell.d[H][1]);
728                   int h = params->measure_cell_height (params->aux, &cell, w);
729                   if (h > r->unspanned)
730                     r->unspanned = r->width = h;
731                 }
732               else
733                 set_join_crossings (page, V, &cell, rules[V]);
734
735               if (table_cell_colspan (&cell) > 1)
736                 set_join_crossings (page, H, &cell, rules[H]);
737             }
738           x = cell.d[H][1];
739           table_cell_free (&cell);
740         }
741     }
742   for (i = 0; i < 2; i++)
743     free (columns[i]);
744
745   /* Distribute heights of spanned rows. */
746   for (y = 0; y < nr; y++)
747     for (x = 0; x < nc; )
748       {
749         struct table_cell cell;
750
751         table_get_cell (table, x, y, &cell);
752         if (y == cell.d[V][0] && table_cell_rowspan (&cell) > 1)
753           {
754             int w = joined_width (page, H, cell.d[H][0], cell.d[H][1]);
755             int h = params->measure_cell_height (params->aux, &cell, w);
756             distribute_spanned_width (h, &rows[cell.d[V][0]], rules[V],
757                                       table_cell_rowspan (&cell));
758           }
759         x = cell.d[H][1];
760         table_cell_free (&cell);
761       }
762
763   /* Decide final row heights. */
764   accumulate_row_widths (page, V, rows, rules[V]);
765   free (rows);
766
767   /* Measure headers.  If they are "too big", get rid of them.  */
768   for (axis = 0; axis < TABLE_N_AXES; axis++)
769     {
770       int hw = headers_width (page, axis);
771       if (hw * 2 >= page->params->size[axis]
772           || hw + max_cell_width (page, axis) > page->params->size[axis])
773         {
774           page->table = table_unshare (page->table);
775           page->table->h[axis][0] = page->table->h[axis][1] = 0;
776           page->h[axis][0] = page->h[axis][1] = 0;
777         }
778     }
779
780   free (rules[H]);
781   free (rules[V]);
782
783   return page;
784 }
785
786 /* Increases PAGE's reference count. */
787 struct render_page *
788 render_page_ref (const struct render_page *page_)
789 {
790   struct render_page *page = CONST_CAST (struct render_page *, page_);
791   page->ref_cnt++;
792   return page;
793 }
794
795 /* Decreases PAGE's reference count and destroys PAGE if this causes the
796    reference count to fall to zero. */
797 void
798 render_page_unref (struct render_page *page)
799 {
800   if (page != NULL && --page->ref_cnt == 0)
801     {
802       int i;
803       struct render_overflow *overflow, *next;
804
805       HMAP_FOR_EACH_SAFE (overflow, next, struct render_overflow, node,
806                           &page->overflows)
807         free (overflow);
808       hmap_destroy (&page->overflows);
809
810       table_unref (page->table);
811       
812       for (i = 0; i < TABLE_N_AXES; ++i)
813         {
814           free (page->join_crossing[i]);
815           free (page->cp[i]);
816         }
817
818       free (page);
819     }
820 }
821
822 /* Returns the size of PAGE along AXIS.  (This might be larger than the page
823    size specified in the parameters passed to render_page_create().  Use a
824    render_break to break up a render_page into page-sized chunks.) */
825 int
826 render_page_get_size (const struct render_page *page, enum table_axis axis)
827 {
828   return page->cp[axis][page->n[axis] * 2 + 1];
829 }
830
831 int
832 render_page_get_best_breakpoint (const struct render_page *page, int height)
833 {
834   int y;
835
836   /* If there's no room for at least the top row and the rules above and below
837      it, don't include any of the table. */
838   if (page->cp[V][3] > height)
839     return 0;
840
841   /* Otherwise include as many rows and rules as we can. */
842   for (y = 5; y <= 2 * page->n[V] + 1; y += 2)
843     if (page->cp[V][y] > height)
844       return page->cp[V][y - 2];
845   return height;
846 }
847 \f
848 /* Drawing render_pages. */
849
850 static inline enum render_line_style
851 get_rule (const struct render_page *page, enum table_axis axis,
852           const int d[TABLE_N_AXES])
853 {
854   return rule_to_render_type (table_get_rule (page->table,
855                                               axis, d[H] / 2, d[V] / 2));
856 }
857
858 static bool
859 is_rule (int z)
860 {
861   return !(z & 1);
862 }
863
864 static void
865 render_rule (const struct render_page *page, const int d[TABLE_N_AXES])
866 {
867   enum render_line_style styles[TABLE_N_AXES][2];
868   enum table_axis a;
869
870   for (a = 0; a < TABLE_N_AXES; a++)
871     {
872       enum table_axis b = !a;
873
874       styles[a][0] = styles[a][1] = RENDER_LINE_NONE;
875
876       if (!is_rule (d[a])
877           || (page->is_edge_cutoff[a][0] && d[a] == 0)
878           || (page->is_edge_cutoff[a][1] && d[a] == page->n[a] * 2))
879         continue;
880
881       if (is_rule (d[b]))
882         {
883           if (d[b] > 0)
884             {
885               int e[TABLE_N_AXES];
886               e[H] = d[H];
887               e[V] = d[V];
888               e[b]--;
889               styles[a][0] = get_rule (page, a, e);
890             }
891
892           if (d[b] / 2 < page->table->n[b])
893             styles[a][1] = get_rule (page, a, d);
894         }
895       else
896         styles[a][0] = styles[a][1] = get_rule (page, a, d);
897     }
898
899   if (styles[H][0] != RENDER_LINE_NONE || styles[H][1] != RENDER_LINE_NONE
900       || styles[V][0] != RENDER_LINE_NONE || styles[V][1] != RENDER_LINE_NONE)
901     {
902       int bb[TABLE_N_AXES][2];
903
904       bb[H][0] = page->cp[H][d[H]];
905       bb[H][1] = page->cp[H][d[H] + 1];
906       bb[V][0] = page->cp[V][d[V]];
907       bb[V][1] = page->cp[V][d[V] + 1];
908       page->params->draw_line (page->params->aux, bb, styles);
909     }
910 }
911
912 static void
913 render_cell (const struct render_page *page, const struct table_cell *cell)
914 {
915   const struct render_overflow *of;
916   int bb[TABLE_N_AXES][2];
917   int clip[TABLE_N_AXES][2];
918
919   bb[H][0] = clip[H][0] = page->cp[H][cell->d[H][0] * 2 + 1];
920   bb[H][1] = clip[H][1] = page->cp[H][cell->d[H][1] * 2];
921   bb[V][0] = clip[V][0] = page->cp[V][cell->d[V][0] * 2 + 1];
922   bb[V][1] = clip[V][1] = page->cp[V][cell->d[V][1] * 2];
923
924   of = find_overflow (page, cell->d[H][0], cell->d[V][0]);
925   if (of)
926     {
927       enum table_axis axis;
928
929       for (axis = 0; axis < TABLE_N_AXES; axis++)
930         {
931           if (of->overflow[axis][0])
932             {
933               bb[axis][0] -= of->overflow[axis][0];
934               if (cell->d[axis][0] == 0 && !page->is_edge_cutoff[axis][0])
935                 clip[axis][0] = page->cp[axis][cell->d[axis][0] * 2];
936             }
937           if (of->overflow[axis][1])
938             {
939               bb[axis][1] += of->overflow[axis][1];
940               if (cell->d[axis][1] == page->n[axis] && !page->is_edge_cutoff[axis][1])
941                 clip[axis][1] = page->cp[axis][cell->d[axis][1] * 2 + 1];
942             }
943         }
944     }
945
946   page->params->draw_cell (page->params->aux, cell, bb, clip);
947 }
948
949 /* Draws the cells of PAGE indicated in BB. */
950 static void
951 render_page_draw_cells (const struct render_page *page,
952                         int bb[TABLE_N_AXES][2])
953 {
954   int x, y;
955
956   for (y = bb[V][0]; y < bb[V][1]; y++)
957     for (x = bb[H][0]; x < bb[H][1]; )
958       if (is_rule (x) || is_rule (y))
959         {
960           int d[TABLE_N_AXES];
961           d[H] = x;
962           d[V] = y;
963           render_rule (page, d);
964           x++;
965         }
966       else
967         {
968           struct table_cell cell;
969
970           table_get_cell (page->table, x / 2, y / 2, &cell);
971           if (y / 2 == bb[V][0] / 2 || y / 2 == cell.d[V][0])
972             render_cell (page, &cell);
973           x = rule_ofs (cell.d[H][1]);
974           table_cell_free (&cell);
975         }
976 }
977
978 /* Renders PAGE, by calling the 'draw_line' and 'draw_cell' functions from the
979    render_params provided to render_page_create(). */
980 void
981 render_page_draw (const struct render_page *page)
982 {
983   int bb[TABLE_N_AXES][2];
984
985   bb[H][0] = 0;
986   bb[H][1] = page->n[H] * 2 + 1;
987   bb[V][0] = 0;
988   bb[V][1] = page->n[V] * 2 + 1;
989
990   render_page_draw_cells (page, bb);
991 }
992
993 /* Returns the greatest value i, 0 <= i < n, such that cp[i] <= x0. */
994 static int
995 get_clip_min_extent (int x0, const int cp[], int n)
996 {
997   int low, high, best;
998
999   low = 0;
1000   high = n;
1001   best = 0;
1002   while (low < high)
1003     {
1004       int middle = low + (high - low) / 2;
1005
1006       if (cp[middle] <= x0)
1007         {
1008           best = middle;
1009           low = middle + 1;
1010         }
1011       else
1012         high = middle;
1013     }
1014
1015   return best;
1016 }
1017
1018 /* Returns the least value i, 0 <= i < n, such that cp[i] >= x1. */
1019 static int
1020 get_clip_max_extent (int x1, const int cp[], int n)
1021 {
1022   int low, high, best;
1023
1024   low = 0;
1025   high = n;
1026   best = n;
1027   while (low < high)
1028     {
1029       int middle = low + (high - low) / 2;
1030
1031       if (cp[middle] >= x1)
1032         best = high = middle;
1033       else
1034         low = middle + 1;
1035     }
1036
1037   while (best > 0 && cp[best - 1] == cp[best])
1038     best--;
1039
1040   return best;
1041 }
1042
1043 /* Renders the cells of PAGE that intersect (X,Y)-(X+W,Y+H), by calling the
1044    'draw_line' and 'draw_cell' functions from the render_params provided to
1045    render_page_create(). */
1046 void
1047 render_page_draw_region (const struct render_page *page,
1048                          int x, int y, int w, int h)
1049 {
1050   int bb[TABLE_N_AXES][2];
1051
1052   bb[H][0] = get_clip_min_extent (x, page->cp[H], page->n[H] * 2 + 1);
1053   bb[H][1] = get_clip_max_extent (x + w, page->cp[H], page->n[H] * 2 + 1);
1054   bb[V][0] = get_clip_min_extent (y, page->cp[V], page->n[V] * 2 + 1);
1055   bb[V][1] = get_clip_max_extent (y + h, page->cp[V], page->n[V] * 2 + 1);
1056
1057   render_page_draw_cells (page, bb);
1058 }
1059 \f
1060 /* Breaking up tables to fit on a page. */
1061
1062 /* An iterator for breaking render_pages into smaller chunks. */
1063 struct render_break
1064   {
1065     struct render_page *page;   /* Page being broken up. */
1066     enum table_axis axis;       /* Axis along which 'page' is being broken. */
1067     int z;                      /* Next cell along 'axis'. */
1068     int pixel;                  /* Pixel offset within cell 'z' (usually 0). */
1069     int hw;                     /* Width of headers of 'page' along 'axis'. */
1070   };
1071
1072 static int needed_size (const struct render_break *, int cell);
1073 static bool cell_is_breakable (const struct render_break *, int cell);
1074 static struct render_page *render_page_select (const struct render_page *,
1075                                                enum table_axis,
1076                                                int z0, int p0,
1077                                                int z1, int p1);
1078
1079 /* Initializes render_break B for breaking PAGE along AXIS.
1080
1081    Ownership of PAGE is transferred to B.  The caller must use
1082    render_page_ref() if it needs to keep a copy of PAGE. */
1083 static void
1084 render_break_init (struct render_break *b, struct render_page *page,
1085                    enum table_axis axis)
1086 {
1087   b->page = page;
1088   b->axis = axis;
1089   b->z = page->h[axis][0];
1090   b->pixel = 0;
1091   b->hw = headers_width (page, axis);
1092 }
1093
1094 /* Initializes B as a render_break structure for which
1095    render_break_has_next() always returns false. */
1096 static void
1097 render_break_init_empty (struct render_break *b)
1098 {
1099   b->page = NULL;
1100   b->axis = TABLE_HORZ;
1101   b->z = 0;
1102   b->pixel = 0;
1103   b->hw = 0;
1104 }
1105
1106 /* Frees B and unrefs the render_page that it owns. */
1107 static void
1108 render_break_destroy (struct render_break *b)
1109 {
1110   if (b != NULL)
1111     {
1112       render_page_unref (b->page);
1113       b->page = NULL;
1114     }
1115 }
1116
1117 /* Returns true if B still has cells that are yet to be returned,
1118    false if all of B's page has been processed. */
1119 static bool
1120 render_break_has_next (const struct render_break *b)
1121 {
1122   const struct render_page *page = b->page;
1123   enum table_axis axis = b->axis;
1124
1125   return page != NULL && b->z < page->n[axis] - page->h[axis][1];
1126 }
1127
1128 /* Returns a new render_page that is up to SIZE pixels wide along B's axis.
1129    Returns a null pointer if B has already been completely broken up, or if
1130    SIZE is too small to reasonably render any cells.  The latter will never
1131    happen if SIZE is at least as large as the page size passed to
1132    render_page_create() along B's axis. */
1133 static struct render_page *
1134 render_break_next (struct render_break *b, int size)
1135 {
1136   const struct render_page *page = b->page;
1137   enum table_axis axis = b->axis;
1138   struct render_page *subpage;
1139   int z, pixel;
1140
1141   if (!render_break_has_next (b))
1142     return NULL;
1143
1144   pixel = 0;
1145   for (z = b->z; z < page->n[axis] - page->h[axis][1]; z++)
1146     {
1147       int needed = needed_size (b, z + 1);
1148       if (needed > size)
1149         {
1150           if (cell_is_breakable (b, z))
1151             {
1152               /* If there is no right header and we render a partial cell on
1153                  the right side of the body, then we omit the rightmost rule of
1154                  the body.  Otherwise the rendering is deceptive because it
1155                  looks like the whole cell is present instead of a partial
1156                  cell.
1157
1158                  This is similar to code for the left side in needed_size(). */
1159               int rule_allowance = (page->h[axis][1]
1160                                     ? 0
1161                                     : rule_width (page, axis, z));
1162
1163               /* The amount that, if we added cell 'z', the rendering would
1164                  overfill the allocated 'size'. */
1165               int overhang = needed - size - rule_allowance;
1166
1167               /* The width of cell 'z'. */
1168               int cell_size = cell_width (page, axis, z);
1169
1170               /* The amount trimmed off the left side of 'z',
1171                  and the amount left to render. */
1172               int cell_ofs = z == b->z ? b->pixel : 0;
1173               int cell_left = cell_size - cell_ofs;
1174
1175               /* A small but visible width.  */
1176               int em = page->params->font_size[axis];
1177
1178               /* If some of the cell remains to render,
1179                  and there would still be some of the cell left afterward,
1180                  then partially render that much of the cell. */
1181               pixel = (cell_left && cell_left > overhang
1182                        ? cell_left - overhang + cell_ofs
1183                        : 0);
1184
1185               /* If there would be only a tiny amount of the cell left after
1186                  rendering it partially, reduce the amount rendered slightly
1187                  to make the output look a little better. */
1188               if (pixel + em > cell_size)
1189                 pixel = MAX (pixel - em, 0);
1190
1191               /* If we're breaking vertically, then consider whether the cells
1192                  being broken have a better internal breakpoint than the exact
1193                  number of pixels available, which might look bad e.g. because
1194                  it breaks in the middle of a line of text. */
1195               if (axis == TABLE_VERT && page->params->adjust_break)
1196                 {
1197                   int x;
1198
1199                   for (x = 0; x < page->n[H]; )
1200                     {
1201                       struct table_cell cell;
1202                       int better_pixel;
1203                       int w;
1204
1205                       table_get_cell (page->table, x, z, &cell);
1206                       w = joined_width (page, H, cell.d[H][0], cell.d[H][1]);
1207                       better_pixel = page->params->adjust_break (
1208                         page->params->aux, &cell, w, pixel);
1209                       x = cell.d[H][1];
1210                       table_cell_free (&cell);
1211
1212                       if (better_pixel < pixel)
1213                         {
1214                           if (better_pixel > (z == b->z ? b->pixel : 0))
1215                             {
1216                               pixel = better_pixel;
1217                               break;
1218                             }
1219                           else if (better_pixel == 0 && z != b->z)
1220                             {
1221                               pixel = 0;
1222                               break;
1223                             }
1224                         }
1225                     }
1226                 }
1227             }
1228           break;
1229         }
1230     }
1231
1232   if (z == b->z && !pixel)
1233     return NULL;
1234
1235   subpage = render_page_select (page, axis, b->z, b->pixel,
1236                                 pixel ? z + 1 : z,
1237                                 pixel ? cell_width (page, axis, z) - pixel
1238                                 : 0);
1239   b->z = z;
1240   b->pixel = pixel;
1241   return subpage;
1242 }
1243
1244 /* Returns the width that would be required along B's axis to render a page
1245    from B's current position up to but not including CELL. */
1246 static int
1247 needed_size (const struct render_break *b, int cell)
1248 {
1249   const struct render_page *page = b->page;
1250   enum table_axis axis = b->axis;
1251   int size;
1252
1253   /* Width of left header not including its rightmost rule.  */
1254   size = axis_width (page, axis, 0, rule_ofs (page->h[axis][0]));
1255
1256   /* If we have a pixel offset and there is no left header, then we omit the
1257      leftmost rule of the body.  Otherwise the rendering is deceptive because
1258      it looks like the whole cell is present instead of a partial cell.
1259
1260      Otherwise (if there are headers) we will be merging two rules: the
1261      rightmost rule in the header and the leftmost rule in the body.  We assume
1262      that the width of a merged rule is the larger of the widths of either rule
1263      invidiually. */
1264   if (b->pixel == 0 || page->h[axis][0])
1265     size += MAX (rule_width (page, axis, page->h[axis][0]),
1266                  rule_width (page, axis, b->z));
1267
1268   /* Width of body, minus any pixel offset in the leftmost cell. */
1269   size += joined_width (page, axis, b->z, cell) - b->pixel;
1270
1271   /* Width of rightmost rule in body merged with leftmost rule in headers. */
1272   size += MAX (rule_width_r (page, axis, page->h[axis][1]),
1273                rule_width (page, axis, cell));
1274
1275   /* Width of right header not including its leftmost rule. */
1276   size += axis_width (page, axis, rule_ofs_r (page, axis, page->h[axis][1]),
1277                       rule_ofs_r (page, axis, 0));
1278
1279   /* Join crossing. */
1280   if (page->h[axis][0] && page->h[axis][1])
1281     size += page->join_crossing[axis][b->z];
1282
1283   return size;
1284 }
1285
1286 /* Returns true if CELL along B's axis may be broken across a page boundary.
1287
1288    This is just a heuristic.  Breaking cells across page boundaries can save
1289    space, but it looks ugly. */
1290 static bool
1291 cell_is_breakable (const struct render_break *b, int cell)
1292 {
1293   const struct render_page *page = b->page;
1294   enum table_axis axis = b->axis;
1295
1296   return cell_width (page, axis, cell) >= page->params->min_break[axis];
1297 }
1298 \f
1299 /* render_pager. */
1300
1301 struct render_pager
1302   {
1303     int width;
1304     struct render_page *page;
1305     struct render_break x_break;
1306     struct render_break y_break;
1307   };
1308
1309 /* Creates and returns a new render_pager for breaking PAGE into smaller
1310    chunks.  Takes ownership of PAGE. */
1311 struct render_pager *
1312 render_pager_create (struct render_page *page)
1313 {
1314   struct render_pager *p = xmalloc (sizeof *p);
1315   p->width = page->params->size[H];
1316   p->page = render_page_ref (page);
1317   render_break_init (&p->x_break, page, H);
1318   render_break_init_empty (&p->y_break);
1319   return p;
1320 }
1321
1322 /* Destroys P. */
1323 void
1324 render_pager_destroy (struct render_pager *p)
1325 {
1326   if (p)
1327     {
1328       render_break_destroy (&p->x_break);
1329       render_break_destroy (&p->y_break);
1330       render_page_unref (p->page);
1331       free (p);
1332     }
1333 }
1334
1335 /* Returns true if P has content remaining to render, false if rendering is
1336    done. */
1337 bool
1338 render_pager_has_next (const struct render_pager *p_)
1339 {
1340   struct render_pager *p = CONST_CAST (struct render_pager *, p_);
1341
1342   while (!render_break_has_next (&p->y_break))
1343     {
1344       render_break_destroy (&p->y_break);
1345       if (render_break_has_next (&p->x_break))
1346         {
1347           struct render_page *x_slice;
1348
1349           x_slice = render_break_next (&p->x_break, p->width);
1350           render_break_init (&p->y_break, x_slice, V);
1351         }
1352       else
1353         {
1354           render_break_init_empty (&p->y_break);
1355           return false;
1356         }
1357     }
1358   return true;
1359 }
1360
1361 /* Draws a chunk of content from P to fit in a space that has vertical size
1362    SPACE and the horizontal size specified in the render_params passed to
1363    render_page_create().  Returns the amount of space actually used by the
1364    rendered chunk, which will be 0 if SPACE is too small to render anything or
1365    if no content remains (use render_pager_has_next() to distinguish these
1366    cases). */
1367 int
1368 render_pager_draw_next (struct render_pager *p, int space)
1369 {
1370   struct render_page *page = (render_pager_has_next (p)
1371                               ? render_break_next (&p->y_break, space)
1372                               : NULL);
1373   if (page)
1374     {
1375       int used = render_page_get_size (page, V);
1376
1377       render_page_draw (page);
1378       render_page_unref (page);
1379       return used;
1380     }
1381   else
1382     return 0;
1383 }
1384
1385 /* Draws all of P's content. */
1386 void
1387 render_pager_draw (const struct render_pager *p)
1388 {
1389   render_page_draw (p->page);
1390 }
1391
1392 /* Draws the region of P's content that lies in the region (X,Y)-(X+W,Y+H).
1393    Some extra content might be drawn; the device should perform clipping as
1394    necessary. */
1395 void
1396 render_pager_draw_region (const struct render_pager *p,
1397                           int x, int y, int w, int h)
1398 {
1399   render_page_draw_region (p->page, x, y, w, h);
1400 }
1401
1402 /* Returns the size of P's content along AXIS; i.e. the content's width if AXIS
1403    is TABLE_HORZ and its length if AXIS is TABLE_VERT. */
1404 int
1405 render_pager_get_size (const struct render_pager *p, enum table_axis axis)
1406 {
1407   return render_page_get_size (p->page, axis);
1408 }
1409
1410 int
1411 render_pager_get_best_breakpoint (const struct render_pager *p, int height)
1412 {
1413   return render_page_get_best_breakpoint (p->page, height);
1414 }
1415 \f
1416 /* render_page_select() and helpers. */
1417
1418 struct render_page_selection
1419   {
1420     const struct render_page *page; /* Page whose slice we are selecting. */
1421     struct render_page *subpage; /* New page under construction. */
1422     enum table_axis a;   /* Axis of 'page' along which 'subpage' is a slice. */
1423     enum table_axis b;   /* The opposite of 'a'. */
1424     int z0;              /* First cell along 'a' being selected. */
1425     int z1;              /* Last cell being selected, plus 1. */
1426     int p0;              /* Number of pixels to trim off left side of z0. */
1427     int p1;              /* Number of pixels to trim off right side of z1-1. */
1428   };
1429
1430 static void cell_to_subpage (struct render_page_selection *,
1431                              const struct table_cell *,
1432                              int subcell[TABLE_N_AXES]);
1433 static const struct render_overflow *find_overflow_for_cell (
1434   struct render_page_selection *, const struct table_cell *);
1435 static struct render_overflow *insert_overflow (struct render_page_selection *,
1436                                                 const struct table_cell *);
1437
1438 /* Creates and returns a new render_page whose contents are a subregion of
1439    PAGE's contents.  The new render_page includes cells Z0 through Z1 along
1440    AXIS, plus any headers on AXIS.
1441
1442    If P0 is nonzero, then it is a number of pixels to exclude from the left or
1443    top (according to AXIS) of cell Z0.  Similarly, P1 is a number of pixels to
1444    exclude from the right or bottom of cell Z1 - 1.  (P0 and P1 are used to
1445    render cells that are too large to fit on a single page.)
1446
1447    The whole of axis !AXIS is included.  (The caller may follow up with another
1448    call to render_page_select() to select on !AXIS to select on that axis as
1449    well.)
1450
1451    The caller retains ownership of PAGE, which is not modified. */
1452 static struct render_page *
1453 render_page_select (const struct render_page *page, enum table_axis axis,
1454                     int z0, int p0, int z1, int p1)
1455 {
1456   struct render_page_selection s;
1457   enum table_axis a = axis;
1458   enum table_axis b = !a;
1459   struct render_page *subpage;
1460   struct render_overflow *ro;
1461   int *dcp, *scp;
1462   int *jc;
1463   int z;
1464
1465
1466   /* Optimize case where all of PAGE is selected by just incrementing the
1467      reference count. */
1468   if (z0 == page->h[a][0] && p0 == 0
1469       && z1 == page->n[a] - page->h[a][1] && p1 == 0)
1470     {
1471       struct render_page *page_rw = CONST_CAST (struct render_page *, page);
1472       page_rw->ref_cnt++;
1473       return page_rw;
1474     }
1475
1476   /* Allocate subpage. */
1477   subpage = render_page_allocate (page->params,
1478                                   table_select_slice (
1479                                     table_ref (page->table),
1480                                     a, z0, z1, true));
1481
1482   /* An edge is cut off if it was cut off in PAGE or if we're trimming pixels
1483      off that side of the page and there are no headers. */
1484   subpage->is_edge_cutoff[a][0] =
1485     subpage->h[a][0] == 0 && (p0 || (z0 == 0 && page->is_edge_cutoff[a][0]));
1486   subpage->is_edge_cutoff[a][1] =
1487     subpage->h[a][1] == 0 && (p1 || (z1 == page->n[a]
1488                                      && page->is_edge_cutoff[a][1]));
1489   subpage->is_edge_cutoff[b][0] = page->is_edge_cutoff[b][0];
1490   subpage->is_edge_cutoff[b][1] = page->is_edge_cutoff[b][1];
1491
1492   /* Select join crossings from PAGE into subpage. */
1493   jc = subpage->join_crossing[a];
1494   for (z = 0; z < page->h[a][0]; z++)
1495     *jc++ = page->join_crossing[a][z];
1496   for (z = z0; z <= z1; z++)
1497     *jc++ = page->join_crossing[a][z];
1498   for (z = page->n[a] - page->h[a][1]; z < page->n[a]; z++)
1499     *jc++ = page->join_crossing[a][z];
1500   assert (jc == &subpage->join_crossing[a][subpage->n[a] + 1]);
1501
1502   memcpy (subpage->join_crossing[b], page->join_crossing[b],
1503           (subpage->n[b] + 1) * sizeof **subpage->join_crossing);
1504
1505   /* Select widths from PAGE into subpage. */
1506   scp = page->cp[a];
1507   dcp = subpage->cp[a];
1508   *dcp = 0;
1509   for (z = 0; z <= rule_ofs (subpage->h[a][0]); z++, dcp++)
1510     {
1511       if (z == 0 && subpage->is_edge_cutoff[a][0])
1512         dcp[1] = dcp[0];
1513       else
1514         dcp[1] = dcp[0] + (scp[z + 1] - scp[z]);
1515     }
1516   for (z = cell_ofs (z0); z <= cell_ofs (z1 - 1); z++, dcp++)
1517     {
1518       dcp[1] = dcp[0] + (scp[z + 1] - scp[z]);
1519       if (z == cell_ofs (z0))
1520         {
1521           dcp[1] -= p0;
1522           if (page->h[a][0] && page->h[a][1])
1523             dcp[1] += page->join_crossing[a][z / 2];
1524         }
1525       if (z == cell_ofs (z1 - 1))
1526         dcp[1] -= p1;
1527     }
1528   for (z = rule_ofs_r (page, a, subpage->h[a][1]);
1529        z <= rule_ofs_r (page, a, 0); z++, dcp++)
1530     {
1531       if (z == rule_ofs_r (page, a, 0) && subpage->is_edge_cutoff[a][1])
1532         dcp[1] = dcp[0];
1533       else
1534         dcp[1] = dcp[0] + (scp[z + 1] - scp[z]);
1535     }
1536   assert (dcp == &subpage->cp[a][2 * subpage->n[a] + 1]);
1537
1538   for (z = 0; z < page->n[b] * 2 + 2; z++)
1539     subpage->cp[b][z] = page->cp[b][z];
1540
1541   /* Add new overflows. */
1542   s.page = page;
1543   s.a = a;
1544   s.b = b;
1545   s.z0 = z0;
1546   s.z1 = z1;
1547   s.p0 = p0;
1548   s.p1 = p1;
1549   s.subpage = subpage;
1550
1551   if (!page->h[a][0] || z0 > page->h[a][0] || p0)
1552     for (z = 0; z < page->n[b]; )
1553       {
1554         struct table_cell cell;
1555         int d[TABLE_N_AXES];
1556         bool overflow0;
1557         bool overflow1;
1558
1559         d[a] = z0;
1560         d[b] = z;
1561
1562         table_get_cell (page->table, d[H], d[V], &cell);
1563         overflow0 = p0 || cell.d[a][0] < z0;
1564         overflow1 = cell.d[a][1] > z1 || (cell.d[a][1] == z1 && p1);
1565         if (overflow0 || overflow1)
1566           {
1567             ro = insert_overflow (&s, &cell);
1568
1569             if (overflow0)
1570               {
1571                 ro->overflow[a][0] += p0 + axis_width (
1572                   page, a, cell_ofs (cell.d[a][0]), cell_ofs (z0));
1573                 if (page->h[a][0] && page->h[a][1])
1574                   ro->overflow[a][0] -= page->join_crossing[a][cell.d[a][0]
1575                                                                + 1];
1576               }
1577
1578             if (overflow1)
1579               {
1580                 ro->overflow[a][1] += p1 + axis_width (
1581                   page, a, cell_ofs (z1), cell_ofs (cell.d[a][1]));
1582                 if (page->h[a][0] && page->h[a][1])
1583                   ro->overflow[a][1] -= page->join_crossing[a][cell.d[a][1]];
1584               }
1585           }
1586         z = cell.d[b][1];
1587         table_cell_free (&cell);
1588       }
1589
1590   if (!page->h[a][1] || z1 < page->n[a] - page->h[a][1] || p1)
1591     for (z = 0; z < page->n[b]; )
1592       {
1593         struct table_cell cell;
1594         int d[TABLE_N_AXES];
1595
1596         d[a] = z1 - 1;
1597         d[b] = z;
1598         table_get_cell (page->table, d[H], d[V], &cell);
1599         if ((cell.d[a][1] > z1 || (cell.d[a][1] == z1 && p1))
1600             && find_overflow_for_cell (&s, &cell) == NULL)
1601           {
1602             ro = insert_overflow (&s, &cell);
1603             ro->overflow[a][1] += p1 + axis_width (page, a, cell_ofs (z1),
1604                                                    cell_ofs (cell.d[a][1]));
1605           }
1606         z = cell.d[b][1];
1607         table_cell_free (&cell);
1608       }
1609
1610   /* Copy overflows from PAGE into subpage. */
1611   HMAP_FOR_EACH (ro, struct render_overflow, node, &page->overflows)
1612     {
1613       struct table_cell cell;
1614
1615       table_get_cell (page->table, ro->d[H], ro->d[V], &cell);
1616       if (cell.d[a][1] > z0 && cell.d[a][0] < z1
1617           && find_overflow_for_cell (&s, &cell) == NULL)
1618         insert_overflow (&s, &cell);
1619       table_cell_free (&cell);
1620     }
1621
1622   return subpage;
1623 }
1624
1625 /* Given CELL, a table_cell within S->page, stores in SUBCELL the (x,y)
1626    coordinates of the top-left cell as it will appear in S->subpage.
1627
1628    CELL must actually intersect the region of S->page that is being selected
1629    by render_page_select() or the results will not make any sense. */
1630 static void
1631 cell_to_subpage (struct render_page_selection *s,
1632                  const struct table_cell *cell, int subcell[TABLE_N_AXES])
1633 {
1634   enum table_axis a = s->a;
1635   enum table_axis b = s->b;
1636   int ha0 = s->subpage->h[a][0];
1637
1638   subcell[a] = MAX (cell->d[a][0] - s->z0 + ha0, ha0);
1639   subcell[b] = cell->d[b][0];
1640 }
1641
1642 /* Given CELL, a table_cell within S->page, returns the render_overflow for
1643    that cell in S->subpage, if there is one, and a null pointer otherwise.
1644
1645    CELL must actually intersect the region of S->page that is being selected
1646    by render_page_select() or the results will not make any sense. */
1647 static const struct render_overflow *
1648 find_overflow_for_cell (struct render_page_selection *s,
1649                         const struct table_cell *cell)
1650 {
1651   int subcell[2];
1652
1653   cell_to_subpage (s, cell, subcell);
1654   return find_overflow (s->subpage, subcell[H], subcell[V]);
1655 }
1656
1657 /* Given CELL, a table_cell within S->page, inserts a render_overflow for that
1658    cell in S->subpage (which must not already exist).  Initializes the new
1659    render_overflow's 'overflow' member from the overflow for CELL in S->page,
1660    if there is one.
1661
1662    CELL must actually intersect the region of S->page that is being selected
1663    by render_page_select() or the results will not make any sense. */
1664 static struct render_overflow *
1665 insert_overflow (struct render_page_selection *s,
1666                  const struct table_cell *cell)
1667 {
1668   const struct render_overflow *old;
1669   struct render_overflow *of;
1670
1671   of = xzalloc (sizeof *of);
1672   cell_to_subpage (s, cell, of->d);
1673   hmap_insert (&s->subpage->overflows, &of->node,
1674                hash_overflow (of->d[H], of->d[V]));
1675
1676   old = find_overflow (s->page, cell->d[H][0], cell->d[V][0]);
1677   if (old != NULL)
1678     memcpy (of->overflow, old->overflow, sizeof of->overflow);
1679
1680   return of;
1681 }