Merge commit 'origin/master' into sso
[pspp] / src / output / render.c
1 /* PSPP - a program for statistical analysis.
2    Copyright (C) 2009, 2010 Free Software Foundation, Inc.
3
4    This program is free software: you can redistribute it and/or modify
5    it under the terms of the GNU General Public License as published by
6    the Free Software Foundation, either version 3 of the License, or
7    (at your option) any later version.
8
9    This program is distributed in the hope that it will be useful,
10    but WITHOUT ANY WARRANTY; without even the implied warranty of
11    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
12    GNU General Public License for more details.
13
14    You should have received a copy of the GNU General Public License
15    along with this program.  If not, see <http://www.gnu.org/licenses/>. */
16
17 #include <config.h>
18
19 #include <math.h>
20 #include <stdio.h>
21 #include <stdlib.h>
22 #include <string.h>
23
24 #include "libpspp/assertion.h"
25 #include "libpspp/hash-functions.h"
26 #include "libpspp/hmap.h"
27 #include "output/render.h"
28 #include "output/table.h"
29
30 #include "gl/minmax.h"
31 #include "gl/xalloc.h"
32
33 /* This file uses TABLE_HORZ and TABLE_VERT enough to warrant abbreviating. */
34 #define H TABLE_HORZ
35 #define V TABLE_VERT
36 \f
37 /* A layout for rendering a specific table on a specific device.
38
39    May represent the layout of an entire table presented to
40    render_page_create(), or a rectangular subregion of a table broken out using
41    render_page_next() to allow a table to be broken across multiple pages. */
42 struct render_page
43   {
44     const struct render_params *params; /* Parameters of the target device. */
45     struct table *table;                /* Table rendered. */
46     int ref_cnt;
47
48     /* Local copies of table->n and table->h, for convenience. */
49     int n[TABLE_N_AXES];
50     int h[TABLE_N_AXES][2];
51
52     /* cp[H] represents x positions within the table.
53        cp[H][0] = 0.
54        cp[H][1] = the width of the leftmost vertical rule.
55        cp[H][2] = cp[H][1] + the width of the leftmost column.
56        cp[H][3] = cp[H][2] + the width of the second-from-left vertical rule.
57        and so on:
58        cp[H][2 * nc] = x position of the rightmost vertical rule.
59        cp[H][2 * nc + 1] = total table width including all rules.
60
61        Similarly, cp[V] represents y positions within the table.
62        cp[V][0] = 0.
63        cp[V][1] = the height of the topmost horizontal rule.
64        cp[V][2] = cp[V][1] + the height of the topmost column.
65        cp[V][3] = cp[V][2] + the height of the second-from-top horizontal rule.
66        and so on:
67        cp[V][2 * nr] = y position of the bottommost horizontal rule.
68        cp[V][2 * nr + 1] = total table height including all rules.
69
70        Rules and columns can have width or height 0, in which case consecutive
71        values in this array are equal. */
72     int *cp[TABLE_N_AXES];
73
74     /* render_break_next() can break a table such that some cells are not fully
75        contained within a render_page.  This will happen if a cell is too wide
76        or two tall to fit on a single page, or if a cell spans multiple rows or
77        columns and the page only includes some of those rows or columns.
78
79        This hash table contains "struct render_overflow"s that represents each
80        such cell that doesn't completely fit on this page.
81
82        Each overflow cell borders at least one header edge of the table and may
83        border more.  (A single table cell that is so large that it fills the
84        entire page can overflow on all four sides!) */
85     struct hmap overflows;
86
87     /* If a single column (or row) is too wide (or tall) to fit on a page
88        reasonably, then render_break_next() will split a single row or column
89        across multiple render_pages.  This member indicates when this has
90        happened:
91
92        is_edge_cutoff[H][0] is true if pixels have been cut off the left side
93        of the leftmost column in this page, and false otherwise.
94
95        is_edge_cutoff[H][1] is true if pixels have been cut off the right side
96        of the rightmost column in this page, and false otherwise.
97
98        is_edge_cutoff[V][0] and is_edge_cutoff[V][1] are similar for the top
99        and bottom of the table.
100
101        The effect of is_edge_cutoff is to prevent rules along the edge in
102        question from being rendered.
103
104        When is_edge_cutoff is true for a given edge, the 'overflows' hmap will
105        contain a node for each cell along that edge. */
106     bool is_edge_cutoff[TABLE_N_AXES][2];
107
108     /* If part of a joined cell would be cut off by breaking a table along
109        'axis' at the rule with offset 'z' (where 0 <= z <= n[axis]), then
110        join_crossing[axis][z] is the thickness of the rule that would be cut
111        off.
112
113        This is used to know to allocate extra space for breaking at such a
114        position, so that part of the cell's content is not lost.
115
116        This affects breaking a table only when headers are present.  When
117        headers are not present, the rule's thickness is used for cell content,
118        so no part of the cell's content is lost (and in fact it is duplicated
119        across both pages). */
120     int *join_crossing[TABLE_N_AXES];
121   };
122
123 /* Returns the offset in struct render_page's cp[axis] array of the rule with
124    index RULE_IDX.  That is, if RULE_IDX is 0, then the offset is that of the
125    leftmost or topmost rule; if RULE_IDX is 1, then the offset is that of the
126    next rule to the right (or below); and so on. */
127 static int
128 rule_ofs (int rule_idx)
129 {
130   return rule_idx * 2;
131 }
132
133 /* Returns the offset in struct render_page's cp[axis] array of the rule with
134    index RULE_IDX_R, which counts from the right side (or bottom) of the page
135    left (or up), according to whether AXIS is H or V, respectively.  That is,
136    if RULE_IDX_R is 0, then the offset is that of the rightmost or bottommost
137    rule; if RULE_IDX is 1, then the offset is that of the next rule to the left
138    (or above); and so on. */
139 static int
140 rule_ofs_r (const struct render_page *page, int axis, int rule_idx_r)
141 {
142   return (page->n[axis] - rule_idx_r) * 2;
143 }
144
145 /* Returns the offset in struct render_page's cp[axis] array of the cell with
146    index CELL_IDX.  That is, if CELL_IDX is 0, then the offset is that of the
147    leftmost or topmost cell; if CELL_IDX is 1, then the offset is that of the
148    next cell to the right (or below); and so on. */
149 static int
150 cell_ofs (int cell_idx)
151 {
152   return cell_idx * 2 + 1;
153 }
154
155 /* Returns the width of PAGE along AXIS from OFS0 to OFS1, exclusive. */
156 static int
157 axis_width (const struct render_page *page, int axis, int ofs0, int ofs1)
158 {
159   return page->cp[axis][ofs1] - page->cp[axis][ofs0];
160 }
161
162 /* Returns the width of the headers in PAGE along AXIS. */
163 static int
164 headers_width (const struct render_page *page, int axis)
165 {
166   int h0 = page->h[axis][0];
167   int w0 = axis_width (page, axis, rule_ofs (0), cell_ofs (h0));
168   int n = page->n[axis];
169   int h1 = page->h[axis][1];
170   int w1 = axis_width (page, axis, rule_ofs_r (page, axis, h1), cell_ofs (n));
171   return w0 + w1;
172 }
173
174 /* Returns the width of cell X along AXIS in PAGE. */
175 static int
176 cell_width (const struct render_page *page, int axis, int x)
177 {
178   return axis_width (page, axis, cell_ofs (x), cell_ofs (x) + 1);
179 }
180
181 /* Returns the width of cells X0 through X1, exclusive, along AXIS in PAGE. */
182 static int
183 joined_width (const struct render_page *page, int axis, int x0, int x1)
184 {
185   return axis_width (page, axis, cell_ofs (x0), cell_ofs (x1) - 1);
186 }
187
188 /* Returns the width of the widest cell, excluding headers, along AXIS in
189    PAGE. */
190 static int
191 max_cell_width (const struct render_page *page, int axis)
192 {
193   int n = page->n[axis];
194   int x0 = page->h[axis][0];
195   int x1 = n - page->h[axis][1];
196   int x, max;
197
198   max = 0;
199   for (x = x0; x < x1; x++)
200     {
201       int w = cell_width (page, axis, x);
202       if (w > max)
203         max = w;
204     }
205   return max;
206 }
207 \f
208 /* A cell that doesn't completely fit on the render_page. */
209 struct render_overflow
210   {
211     struct hmap_node node;      /* In render_page's 'overflows' hmap. */
212
213     /* Occupied region of page.
214
215        d[H][0] is the leftmost column.
216        d[H][1] is the rightmost column, plus 1.
217        d[V][0] is the top row.
218        d[V][1] is the bottom row, plus 1.
219
220        The cell in its original table might occupy a larger region.  This
221        member reflects the size of the cell in the current render_page, after
222        trimming off any rows or columns due to page-breaking. */
223     int d[TABLE_N_AXES];
224
225     /* The space that has been trimmed off the cell:
226
227        overflow[H][0]: space trimmed off its left side.
228        overflow[H][1]: space trimmed off its right side.
229        overflow[V][0]: space trimmed off its top.
230        overflow[V][1]: space trimmed off its bottom.
231
232        During rendering, this information is used to position the rendered
233        portion of the cell within the available space.
234
235        When a cell is rendered, sometimes it is permitted to spill over into
236        space that is ordinarily reserved for rules.  Either way, this space is
237        still included in overflow values.
238
239        Suppose, for example, that a cell that joins 2 columns has a width of 60
240        pixels and content "abcdef", that the 2 columns that it joins have
241        widths of 20 and 30 pixels, respectively, and that therefore the rule
242        between the two joined columns has a width of 10 (20 + 10 + 30 = 60).
243        It might render like this, if each character is 10x10, and showing a few
244        extra table cells for context:
245
246                                      +------+
247                                      |abcdef|
248                                      +--+---+
249                                      |gh|ijk|
250                                      +--+---+
251
252        If this render_page is broken at the rule that separates "gh" from
253        "ijk", then the page that contains the left side of the "abcdef" cell
254        will have overflow[H][1] of 10 + 30 = 40 for its portion of the cell,
255        and the page that contains the right side of the cell will have
256        overflow[H][0] of 20 + 10 = 30.  The two resulting pages would look like
257        this:
258
259
260                                        +---
261                                        |abc
262                                        +--+
263                                        |gh|
264                                        +--+
265
266        and:
267
268                                        ----+
269                                        cdef|
270                                        +---+
271                                        |ijk|
272                                        +---+
273     */
274     int overflow[TABLE_N_AXES][2];
275   };
276
277 /* Returns a hash value for (X,Y). */
278 static unsigned int
279 hash_overflow (int x, int y)
280 {
281   return hash_int (x + (y << 16), 0);
282 }
283
284 /* Searches PAGE's set of render_overflow for one whose top-left cell is
285    (X,Y).  Returns it, if there is one, otherwise a null pointer. */
286 static const struct render_overflow *
287 find_overflow (const struct render_page *page, int x, int y)
288 {
289   if (!hmap_is_empty (&page->overflows))
290     {
291       const struct render_overflow *of;
292
293       HMAP_FOR_EACH_WITH_HASH (of, struct render_overflow, node,
294                                hash_overflow (x, y), &page->overflows)
295         if (x == of->d[H] && y == of->d[V])
296           return of;
297     }
298
299   return NULL;
300 }
301 \f
302 /* Row or column dimensions.  Used to figure the size of a table in
303    render_page_create() and discarded after that. */
304 struct render_row
305   {
306     /* Width without considering rows (or columns) that span more than one (or
307        column). */
308     int unspanned;
309
310     /* Width taking spanned rows (or columns) into consideration. */
311     int width;
312   };
313
314 /* Modifies the 'width' members of the N elements of ROWS so that their sum,
315    when added to rule widths RULES[1] through RULES[N - 1] inclusive, is at
316    least WIDTH. */
317 static void
318 distribute_spanned_width (int width,
319                           struct render_row *rows, const int *rules, int n)
320 {
321   int total_unspanned;
322   double w, d0, d1, d;
323   int x;
324
325   /* Sum up the unspanned widths of the N rows for use as weights. */
326   total_unspanned = 0;
327   for (x = 0; x < n; x++)
328     total_unspanned += rows[x].unspanned;
329   for (x = 0; x < n - 1; x++)
330     total_unspanned += rules[x + 1];
331   if (total_unspanned >= width)
332     return;
333
334   /* The algorithm used here is based on the following description from HTML 4:
335
336          For cells that span multiple columns, a simple approach consists of
337          apportioning the min/max widths evenly to each of the constituent
338          columns.  A slightly more complex approach is to use the min/max
339          widths of unspanned cells to weight how spanned widths are
340          apportioned.  Experiments suggest that a blend of the two approaches
341          gives good results for a wide range of tables.
342
343      We blend the two approaches half-and-half, except that we cannot use the
344      unspanned weights when 'total_unspanned' is 0 (because that would cause a
345      division by zero).
346
347      This implementation uses floating-point types and operators, but all the
348      values involved are integers.  For integers smaller than 53 bits, this
349      should not lose any precision, and it should degrade gracefully for larger
350      values.
351
352      The calculation we want to do is this:
353
354         w0 = width / n
355         w1 = width * (column's unspanned width) / (total unspanned width)
356         (column's width) = (w0 + w1) / 2
357
358      We implement it as a precise calculation in integers by multiplying w0 and
359      w1 by the common denominator of all three calculations (d), dividing that
360      out in the column width calculation, and then keeping the remainder for
361      the next iteration.
362   */
363   d0 = n;
364   d1 = total_unspanned * 2.0;
365   d = d0 * d1;
366   if (total_unspanned > 0)
367     d *= 2.0;
368   w = floor (d / 2.0);
369   for (x = 0; x < n; x++)
370     {
371       w += width * d1;
372       if (total_unspanned > 0)
373         {
374           double unspanned = rows[x].unspanned * 2.0;
375           if (x < n - 1)
376             unspanned += rules[x + 1];
377           if (x > 0)
378             unspanned += rules[x];
379           w += width * unspanned * d0;
380         }
381
382       rows[x].width = w / d;
383       w -= rows[x].width * d;
384     }
385 }
386
387 /* Initializes PAGE->cp[AXIS] from the row widths in ROWS and the rule widths
388    in RULES. */
389 static void
390 accumulate_row_widths (const struct render_page *page, enum table_axis axis,
391                        const struct render_row *rows, const int *rules)
392 {
393   int n = page->n[axis];
394   int *cp;
395   int z;
396
397   cp = page->cp[axis];
398   cp[0] = 0;
399   for (z = 0; z < n; z++)
400     {
401       cp[1] = cp[0] + rules[z];
402       cp[2] = cp[1] + rows[z].width;
403       cp += 2;
404     }
405   cp[1] = cp[0] + rules[n];
406 }
407
408 /* Returns the sum of widths of the N ROWS and N+1 RULES. */
409 static int
410 calculate_table_width (int n, const struct render_row *rows, int *rules)
411 {
412   int width;
413   int x;
414
415   width = 0;
416   for (x = 0; x < n; x++)
417     width += rows[x].width;
418   for (x = 0; x <= n; x++)
419     width += rules[x];
420
421   return width;
422 }
423 \f
424 /* Rendering utility functions. */
425
426 /* Returns the line style to use for drawing a rule of the given TYPE. */
427 static enum render_line_style
428 rule_to_render_type (unsigned char type)
429 {
430   switch (type)
431     {
432     case TAL_0:
433     case TAL_GAP:
434       return RENDER_LINE_NONE;
435     case TAL_1:
436       return RENDER_LINE_SINGLE;
437     case TAL_2:
438       return RENDER_LINE_DOUBLE;
439     default:
440       NOT_REACHED ();
441     }
442 }
443
444 /* Returns the width of the rule in TABLE that is at offset Z along axis A, if
445    rendered with PARAMS.  */
446 static int
447 measure_rule (const struct render_params *params, const struct table *table,
448               enum table_axis a, int z)
449 {
450   enum table_axis b = !a;
451   unsigned int rules;
452   int d[TABLE_N_AXES];
453   int width, i;
454
455   /* Determine all types of rules that are present, as a bitmap in 'rules'
456      where rule type 't' is present if bit 2**t is set. */
457   rules = 0;
458   d[a] = z;
459   for (d[b] = 0; d[b] < table->n[b]; d[b]++)
460     rules |= 1u << table_get_rule (table, a, d[H], d[V]);
461
462   /* Calculate maximum width of the rules that are present. */
463   width = 0;
464   for (i = 0; i < N_LINES; i++)
465     if (rules & (1u << i))
466       width = MAX (width, params->line_widths[a][rule_to_render_type (i)]);
467
468   return width;
469 }
470
471 /* Allocates and returns a new render_page using PARAMS and TABLE.  Allocates
472    space for all of the members of the new page, but the caller must initialize
473    the 'cp' member itself. */
474 static struct render_page *
475 render_page_allocate (const struct render_params *params,
476                       struct table *table)
477 {
478   struct render_page *page;
479   int i;
480
481   page = xmalloc (sizeof *page);
482   page->params = params;
483   page->table = table;
484   page->ref_cnt = 1;
485   page->n[H] = table->n[H];
486   page->n[V] = table->n[V];
487   page->h[H][0] = table->h[H][0];
488   page->h[H][1] = table->h[H][1];
489   page->h[V][0] = table->h[V][0];
490   page->h[V][1] = table->h[V][1];
491
492   for (i = 0; i < TABLE_N_AXES; i++)
493     {
494       page->cp[i] = xmalloc ((2 * page->n[i] + 2) * sizeof *page->cp[i]);
495       page->join_crossing[i] = xzalloc ((page->n[i] + 1) * sizeof *page->join_crossing[i]);
496     }
497
498   hmap_init (&page->overflows);
499   memset (page->is_edge_cutoff, 0, sizeof page->is_edge_cutoff);
500
501   return page;
502 }
503
504 /* Allocates and returns a new render_page for PARAMS and TABLE, initializing
505    cp[H] in the new page from ROWS and RULES.  The caller must still initialize
506    cp[V]. */
507 static struct render_page *
508 create_page_with_exact_widths (const struct render_params *params,
509                                struct table *table,
510                                const struct render_row *rows, int *rules)
511 {
512   struct render_page *page = render_page_allocate (params, table);
513   accumulate_row_widths (page, H, rows, rules);
514   return page;
515 }
516
517 /* Allocates and returns a new render_page for PARAMS and TABLE.
518
519    Initializes cp[H] in the new page by setting the width of each row 'i' to
520    somewhere between the minimum cell width ROW_MIN[i].width and the maximum
521    ROW_MAX[i].width.  Sets the width of rules to those in RULES.
522
523    W_MIN is the sum of ROWS_MIN[].width.
524
525    W_MAX is the sum of ROWS_MAX[].width.
526
527    The caller must still initialize cp[V]. */
528 static struct render_page *
529 create_page_with_interpolated_widths (const struct render_params *params,
530                                       struct table *table,
531                                       const struct render_row *rows_min,
532                                       const struct render_row *rows_max,
533                                       int w_min, int w_max, const int *rules)
534 {
535   /* This implementation uses floating-point types and operators, but all the
536      values involved are integers.  For integers smaller than 53 bits, this
537      should not lose any precision, and it should degrade gracefully for larger
538      values. */
539   const int n = table->n[H];
540   const double avail = params->size[H] - w_min;
541   const double wanted = w_max - w_min;
542   struct render_page *page;
543   double w;
544   int *cph;
545   int x;
546
547   assert (wanted > 0);
548
549   page = render_page_allocate (params, table);
550
551   cph = page->cp[H];
552   *cph = 0;
553   w = (int) wanted / 2;
554   for (x = 0; x < n; x++)
555     {
556       int extra;
557
558       w += avail * (rows_max[x].width - rows_min[x].width);
559       extra = w / wanted;
560       w -= extra * wanted;
561
562       cph[1] = cph[0] + rules[x];
563       cph[2] = cph[1] + rows_min[x].width + extra;
564       cph += 2;
565     }
566   cph[1] = cph[0] + rules[n];
567
568   assert (page->cp[H][n * 2 + 1] == params->size[H]);
569   return page;
570 }
571
572 \f
573 static void
574 set_join_crossings (struct render_page *page, enum table_axis axis,
575                     const struct table_cell *cell, int *rules)
576 {
577   int z;
578
579   for (z = cell->d[axis][0] + 1; z <= cell->d[axis][1] - 1; z++)
580     page->join_crossing[axis][z] = rules[z];
581 }
582
583 /* Creates and returns a new render_page for rendering TABLE on a device
584    described by PARAMS.
585
586    The new render_page will be suitable for rendering on a device whose page
587    size is PARAMS->size, but the caller is responsible for actually breaking it
588    up to fit on such a device, using the render_break abstraction.  */
589 struct render_page *
590 render_page_create (const struct render_params *params,
591                     const struct table *table_)
592 {
593   struct render_page *page;
594   struct table *table;
595   enum { MIN, MAX };
596   struct render_row *columns[2];
597   struct render_row *rows;
598   int table_widths[2];
599   int *rules[TABLE_N_AXES];
600   int nr, nc;
601   int x, y;
602   int i;
603   enum table_axis axis;
604
605   table = table_ref (table_);
606   nc = table_nc (table);
607   nr = table_nr (table);
608
609   /* Figure out rule widths. */
610   for (axis = 0; axis < TABLE_N_AXES; axis++)
611     {
612       int n = table->n[axis] + 1;
613       int z;
614
615       rules[axis] = xnmalloc (n, sizeof *rules);
616       for (z = 0; z < n; z++)
617         rules[axis][z] = measure_rule (params, table, axis, z);
618     }
619
620   /* Calculate minimum and maximum widths of cells that do not
621      span multiple columns. */
622   for (i = 0; i < 2; i++)
623     columns[i] = xzalloc (nc * sizeof *columns[i]);
624   for (y = 0; y < nr; y++)
625     for (x = 0; x < nc; )
626       {
627         struct table_cell cell;
628
629         table_get_cell (table, x, y, &cell);
630         if (y == cell.d[V][0] && table_cell_colspan (&cell) == 1)
631           {
632             int w[2];
633             int i;
634
635             params->measure_cell_width (params->aux, &cell, &w[MIN], &w[MAX]);
636             for (i = 0; i < 2; i++)
637               if (columns[i][x].unspanned < w[i])
638                 columns[i][x].unspanned = w[i];
639           }
640         x = cell.d[H][1];
641         table_cell_free (&cell);
642       }
643
644   /* Distribute widths of spanned columns. */
645   for (i = 0; i < 2; i++)
646     for (x = 0; x < nc; x++)
647       columns[i][x].width = columns[i][x].unspanned;
648   for (y = 0; y < nr; y++)
649     for (x = 0; x < nc; )
650       {
651         struct table_cell cell;
652
653         table_get_cell (table, x, y, &cell);
654         if (y == cell.d[V][0] && table_cell_colspan (&cell) > 1)
655           {
656             int w[2];
657
658             params->measure_cell_width (params->aux, &cell, &w[MIN], &w[MAX]);
659             for (i = 0; i < 2; i++)
660               distribute_spanned_width (w[i], &columns[i][cell.d[H][0]],
661                                         rules[H], table_cell_colspan (&cell));
662           }
663         x = cell.d[H][1];
664         table_cell_free (&cell);
665       }
666
667   /* Decide final column widths. */
668   for (i = 0; i < 2; i++)
669     table_widths[i] = calculate_table_width (table_nc (table),
670                                              columns[i], rules[H]);
671   if (table_widths[MAX] <= params->size[H])
672     {
673       /* Fits even with maximum widths.  Use them. */
674       page = create_page_with_exact_widths (params, table, columns[MAX],
675                                             rules[H]);
676     }
677   else if (table_widths[MIN] <= params->size[H])
678     {
679       /* Fits with minimum widths, so distribute the leftover space. */
680       page = create_page_with_interpolated_widths (
681         params, table, columns[MIN], columns[MAX],
682         table_widths[MIN], table_widths[MAX], rules[H]);
683     }
684   else
685     {
686       /* Doesn't fit even with minimum widths.  Assign minimums for now, and
687          later we can break it horizontally into multiple pages. */
688       page = create_page_with_exact_widths (params, table, columns[MIN],
689                                             rules[H]);
690     }
691
692   /* Calculate heights of cells that do not span multiple rows. */
693   rows = xzalloc (nr * sizeof *rows);
694   for (y = 0; y < nr; y++)
695     {
696       for (x = 0; x < nc; )
697         {
698           struct render_row *r = &rows[y];
699           struct table_cell cell;
700
701           table_get_cell (table, x, y, &cell);
702           if (y == cell.d[V][0])
703             {
704               if (table_cell_rowspan (&cell) == 1)
705                 {
706                   int w = joined_width (page, H, cell.d[H][0], cell.d[H][1]);
707                   int h = params->measure_cell_height (params->aux, &cell, w);
708                   if (h > r->unspanned)
709                     r->unspanned = r->width = h;
710                 }
711               else
712                 set_join_crossings (page, V, &cell, rules[V]);
713
714               if (table_cell_colspan (&cell) > 1)
715                 set_join_crossings (page, H, &cell, rules[H]);
716             }
717           x = cell.d[H][1];
718           table_cell_free (&cell);
719         }
720     }
721   for (i = 0; i < 2; i++)
722     free (columns[i]);
723
724   /* Distribute heights of spanned rows. */
725   for (y = 0; y < nr; y++)
726     for (x = 0; x < nc; )
727       {
728         struct table_cell cell;
729
730         table_get_cell (table, x, y, &cell);
731         if (y == cell.d[V][0] && table_cell_rowspan (&cell) > 1)
732           {
733             int w = joined_width (page, H, cell.d[H][0], cell.d[H][1]);
734             int h = params->measure_cell_height (params->aux, &cell, w);
735             distribute_spanned_width (h, &rows[cell.d[V][0]], rules[V],
736                                       table_cell_rowspan (&cell));
737           }
738         x = cell.d[H][1];
739         table_cell_free (&cell);
740       }
741
742   /* Decide final row heights. */
743   accumulate_row_widths (page, V, rows, rules[V]);
744   free (rows);
745
746   /* Measure headers.  If they are "too big", get rid of them.  */
747   for (axis = 0; axis < TABLE_N_AXES; axis++)
748     {
749       int hw = headers_width (page, axis);
750       if (hw * 2 >= page->params->size[axis]
751           || hw + max_cell_width (page, axis) > page->params->size[axis])
752         {
753           page->table = table_unshare (page->table);
754           page->table->h[axis][0] = page->table->h[axis][1] = 0;
755           page->h[axis][0] = page->h[axis][1] = 0;
756         }
757     }
758
759   free (rules[H]);
760   free (rules[V]);
761
762   return page;
763 }
764
765 /* Increases PAGE's reference count. */
766 struct render_page *
767 render_page_ref (const struct render_page *page_)
768 {
769   struct render_page *page = CONST_CAST (struct render_page *, page_);
770   page->ref_cnt++;
771   return page;
772 }
773
774 /* Decreases PAGE's reference count and destroys PAGE if this causes the
775    reference count to fall to zero. */
776 void
777 render_page_unref (struct render_page *page)
778 {
779   if (page != NULL && --page->ref_cnt == 0)
780     {
781       int i;
782       struct render_overflow *overflow, *next;
783
784       HMAP_FOR_EACH_SAFE (overflow, next, struct render_overflow, node,
785                           &page->overflows)
786         free (overflow);
787       hmap_destroy (&page->overflows);
788
789       table_unref (page->table);
790       
791       for (i = 0; i < TABLE_N_AXES; ++i)
792         {
793           free (page->join_crossing[i]);
794           free (page->cp[i]);
795         }
796
797       free (page);
798     }
799 }
800
801 /* Returns the size of PAGE along AXIS.  (This might be larger than the page
802    size specified in the parameters passed to render_page_create().  Use a
803    render_break to break up a render_page into page-sized chunks.) */
804 int
805 render_page_get_size (const struct render_page *page, enum table_axis axis)
806 {
807   return page->cp[axis][page->n[axis] * 2 + 1];
808 }
809 \f
810 /* Drawing render_pages. */
811
812 static enum render_line_style
813 get_rule (const struct render_page *page, enum table_axis axis,
814           const int d[TABLE_N_AXES])
815 {
816   return rule_to_render_type (table_get_rule (page->table,
817                                               axis, d[H] / 2, d[V] / 2));
818 }
819
820 static bool
821 is_rule (int z)
822 {
823   return !(z & 1);
824 }
825
826 static void
827 render_rule (const struct render_page *page, const int d[TABLE_N_AXES])
828 {
829   enum render_line_style styles[TABLE_N_AXES][2];
830   enum table_axis a;
831
832   for (a = 0; a < TABLE_N_AXES; a++)
833     {
834       enum table_axis b = !a;
835
836       styles[a][0] = styles[a][1] = RENDER_LINE_NONE;
837
838       if (!is_rule (d[a])
839           || (page->is_edge_cutoff[a][0] && d[a] == 0)
840           || (page->is_edge_cutoff[a][1] && d[a] == page->n[a] * 2))
841         continue;
842
843       if (is_rule (d[b]))
844         {
845           if (d[b] > 0)
846             {
847               int e[TABLE_N_AXES];
848               e[H] = d[H];
849               e[V] = d[V];
850               e[b]--;
851               styles[a][0] = get_rule (page, a, e);
852             }
853
854           if (d[b] / 2 < page->table->n[b])
855             styles[a][1] = get_rule (page, a, d);
856         }
857       else
858         styles[a][0] = styles[a][1] = get_rule (page, a, d);
859     }
860
861   if (styles[H][0] != RENDER_LINE_NONE || styles[H][1] != RENDER_LINE_NONE
862       || styles[V][0] != RENDER_LINE_NONE || styles[V][1] != RENDER_LINE_NONE)
863     {
864       int bb[TABLE_N_AXES][2];
865
866       bb[H][0] = page->cp[H][d[H]];
867       bb[H][1] = page->cp[H][d[H] + 1];
868       bb[V][0] = page->cp[V][d[V]];
869       bb[V][1] = page->cp[V][d[V] + 1];
870       page->params->draw_line (page->params->aux, bb, styles);
871     }
872 }
873
874 static void
875 render_cell (const struct render_page *page, const struct table_cell *cell)
876 {
877   const struct render_overflow *of;
878   int bb[TABLE_N_AXES][2];
879   int clip[TABLE_N_AXES][2];
880
881   bb[H][0] = clip[H][0] = page->cp[H][cell->d[H][0] * 2 + 1];
882   bb[H][1] = clip[H][1] = page->cp[H][cell->d[H][1] * 2];
883   bb[V][0] = clip[V][0] = page->cp[V][cell->d[V][0] * 2 + 1];
884   bb[V][1] = clip[V][1] = page->cp[V][cell->d[V][1] * 2];
885
886   of = find_overflow (page, cell->d[H][0], cell->d[V][0]);
887   if (of)
888     {
889       enum table_axis axis;
890
891       for (axis = 0; axis < TABLE_N_AXES; axis++)
892         {
893           if (of->overflow[axis][0])
894             {
895               bb[axis][0] -= of->overflow[axis][0];
896               if (cell->d[axis][0] == 0)
897                 clip[axis][0] = page->cp[axis][cell->d[axis][0] * 2];
898             }
899           if (of->overflow[axis][1])
900             {
901               bb[axis][1] += of->overflow[axis][1];
902               if (cell->d[axis][1] == page->n[axis])
903                 clip[axis][1] = page->cp[axis][cell->d[axis][1] * 2 + 1];
904             }
905         }
906     }
907
908   page->params->draw_cell (page->params->aux, cell, bb, clip);
909 }
910
911 /* Draws the cells of PAGE indicated in BB. */
912 static void
913 render_page_draw_cells (const struct render_page *page,
914                         int bb[TABLE_N_AXES][2])
915 {
916   int x, y;
917
918   for (y = bb[V][0]; y < bb[V][1]; y++)
919     for (x = bb[H][0]; x < bb[H][1]; )
920       if (is_rule (x) || is_rule (y))
921         {
922           int d[TABLE_N_AXES];
923           d[H] = x;
924           d[V] = y;
925           render_rule (page, d);
926           x++;
927         }
928       else
929         {
930           struct table_cell cell;
931
932           table_get_cell (page->table, x / 2, y / 2, &cell);
933           if (y == bb[V][0] || y / 2 == cell.d[V][0])
934             render_cell (page, &cell);
935           x = rule_ofs (cell.d[H][1]);
936           table_cell_free (&cell);
937         }
938 }
939
940 /* Renders PAGE, by calling the 'draw_line' and 'draw_cell' functions from the
941    render_params provided to render_page_create(). */
942 void
943 render_page_draw (const struct render_page *page)
944 {
945   int bb[TABLE_N_AXES][2];
946
947   bb[H][0] = 0;
948   bb[H][1] = page->n[H] * 2 + 1;
949   bb[V][0] = 0;
950   bb[V][1] = page->n[V] * 2 + 1;
951
952   render_page_draw_cells (page, bb);
953 }
954
955 /* Returns the greatest value i, 0 <= i < n, such that cp[i] <= x0. */
956 static int
957 get_clip_min_extent (int x0, const int cp[], int n)
958 {
959   int low, high, best;
960
961   low = 0;
962   high = n;
963   best = 0;
964   while (low < high)
965     {
966       int middle = low + (high - low) / 2;
967
968       if (cp[middle] <= x0)
969         {
970           best = middle;
971           low = middle + 1;
972         }
973       else
974         high = middle;
975     }
976
977   return best;
978 }
979
980 /* Returns the least value i, 0 <= i < n, such that cp[i + 1] >= x1. */
981 static int
982 get_clip_max_extent (int x1, const int cp[], int n)
983 {
984   int low, high, best;
985
986   low = 0;
987   high = n;
988   best = n;
989   while (low < high)
990     {
991       int middle = low + (high - low) / 2;
992
993       if (cp[middle] >= x1)
994         best = high = middle;
995       else
996         low = middle + 1;
997     }
998
999   return best;
1000 }
1001
1002 /* Renders the cells of PAGE that intersect (X,Y)-(X+W,Y+H), by calling the
1003    'draw_line' and 'draw_cell' functions from the render_params provided to
1004    render_page_create(). */
1005 void
1006 render_page_draw_region (const struct render_page *page,
1007                          int x, int y, int w, int h)
1008 {
1009   int bb[TABLE_N_AXES][2];
1010
1011   bb[H][0] = get_clip_min_extent (x, page->cp[H], page->n[H] * 2 + 1);
1012   bb[H][1] = get_clip_max_extent (x + w, page->cp[H], page->n[H] * 2 + 1);
1013   bb[V][0] = get_clip_min_extent (y, page->cp[V], page->n[V] * 2 + 1);
1014   bb[V][1] = get_clip_max_extent (y + h, page->cp[V], page->n[V] * 2 + 1);
1015
1016   render_page_draw_cells (page, bb);
1017 }
1018 \f
1019 /* Breaking up tables to fit on a page. */
1020
1021 static int needed_size (const struct render_break *, int cell);
1022 static bool cell_is_breakable (const struct render_break *, int cell);
1023 static struct render_page *render_page_select (const struct render_page *,
1024                                                enum table_axis,
1025                                                int z0, int p0,
1026                                                int z1, int p1);
1027
1028 /* Initializes render_break B for breaking PAGE along AXIS.
1029
1030    Ownership of PAGE is transferred to B.  The caller must use
1031    render_page_ref() if it needs to keep a copy of PAGE. */
1032 void
1033 render_break_init (struct render_break *b, struct render_page *page,
1034                    enum table_axis axis)
1035 {
1036   b->page = page;
1037   b->axis = axis;
1038   b->cell = page->h[axis][0];
1039   b->pixel = 0;
1040   b->hw = headers_width (page, axis);
1041 }
1042
1043 /* Initializes B as a render_break structure for which
1044    render_break_has_next() always returns false. */
1045 void
1046 render_break_init_empty (struct render_break *b)
1047 {
1048   b->page = NULL;
1049   b->axis = TABLE_HORZ;
1050   b->cell = 0;
1051   b->pixel = 0;
1052   b->hw = 0;
1053 }
1054
1055 /* Frees B and unrefs the render_page that it owns. */
1056 void
1057 render_break_destroy (struct render_break *b)
1058 {
1059   if (b != NULL)
1060     {
1061       render_page_unref (b->page);
1062       b->page = NULL;
1063     }
1064 }
1065
1066 /* Returns true if B still has cells that are yet to be returned,
1067    false if all of B's page has been processed. */
1068 bool
1069 render_break_has_next (const struct render_break *b)
1070 {
1071   const struct render_page *page = b->page;
1072   enum table_axis axis = b->axis;
1073
1074   return page != NULL && b->cell < page->n[axis] - page->h[axis][1];
1075 }
1076
1077 /* Returns the minimum SIZE argument that, if passed to render_break_next(),
1078    will avoid a null return value (if cells are still left). */
1079 int
1080 render_break_next_size (const struct render_break *b)
1081 {
1082   const struct render_page *page = b->page;
1083   enum table_axis axis = b->axis;
1084
1085   return (!render_break_has_next (b) ? 0
1086           : !cell_is_breakable (b, b->cell) ? needed_size (b, b->cell + 1)
1087           : b->hw + page->params->font_size[axis]);
1088 }
1089
1090 /* Returns a new render_page that is up to SIZE pixels wide along B's axis.
1091    Returns a null pointer if B has already been completely broken up, or if
1092    SIZE is too small to reasonably render any cells.  The latter will never
1093    happen if SIZE is at least as large as the page size passed to
1094    render_page_create() along B's axis. */
1095 struct render_page *
1096 render_break_next (struct render_break *b, int size)
1097 {
1098   const struct render_page *page = b->page;
1099   enum table_axis axis = b->axis;
1100   struct render_page *subpage;
1101   int cell, pixel;
1102
1103   if (!render_break_has_next (b))
1104     return NULL;
1105
1106   pixel = 0;
1107   for (cell = b->cell; cell < page->n[axis] - page->h[axis][1]; cell++)
1108     if (needed_size (b, cell + 1) > size)
1109       {
1110         if (!cell_is_breakable (b, cell))
1111           {
1112             if (cell == b->cell)
1113               return NULL;
1114           }
1115         else
1116           pixel = (cell == b->cell
1117                    ? b->pixel + size - b->hw
1118                    : size - needed_size (b, cell));
1119         break;
1120       }
1121
1122   subpage = render_page_select (page, axis, b->cell, b->pixel,
1123                                 pixel ? cell + 1 : cell,
1124                                 pixel ? cell_width (page, axis, cell) - pixel
1125                                 : 0);
1126   b->cell = cell;
1127   b->pixel = pixel;
1128   return subpage;
1129 }
1130
1131 /* Returns the width that would be required along B's axis to render a page
1132    from B's current position up to but not including CELL. */
1133 static int
1134 needed_size (const struct render_break *b, int cell)
1135 {
1136   const struct render_page *page = b->page;
1137   enum table_axis axis = b->axis;
1138   int size;
1139
1140   size = joined_width (page, axis, b->cell, cell) + b->hw - b->pixel;
1141   if (page->h[axis][0] && page->h[axis][1])
1142     size += page->join_crossing[axis][b->cell];
1143
1144   return size;
1145 }
1146
1147 /* Returns true if CELL along B's axis may be broken across a page boundary.
1148
1149    This is just a heuristic.  Breaking cells across page boundaries can save
1150    space, but it looks ugly. */
1151 static bool
1152 cell_is_breakable (const struct render_break *b, int cell)
1153 {
1154   const struct render_page *page = b->page;
1155   enum table_axis axis = b->axis;
1156
1157   return cell_width (page, axis, cell) > page->params->size[axis] / 2;
1158 }
1159 \f
1160 /* render_page_select() and helpers. */
1161
1162 struct render_page_selection
1163   {
1164     const struct render_page *page; /* Page whose slice we are selecting. */
1165     struct render_page *subpage; /* New page under construction. */
1166     enum table_axis a;   /* Axis of 'page' along which 'subpage' is a slice. */
1167     enum table_axis b;   /* The opposite of 'a'. */
1168     int z0;              /* First cell along 'a' being selected. */
1169     int z1;              /* Last cell being selected, plus 1. */
1170     int p0;              /* Number of pixels to trim off left side of z0. */
1171     int p1;              /* Number of pixels to trim off right side of z1-1. */
1172   };
1173
1174 static void cell_to_subpage (struct render_page_selection *,
1175                              const struct table_cell *,
1176                              int subcell[TABLE_N_AXES]);
1177 static const struct render_overflow *find_overflow_for_cell (
1178   struct render_page_selection *, const struct table_cell *);
1179 static struct render_overflow *insert_overflow (struct render_page_selection *,
1180                                                 const struct table_cell *);
1181
1182 /* Creates and returns a new render_page whose contents are a subregion of
1183    PAGE's contents.  The new render_page includes cells Z0 through Z1 along
1184    AXIS, plus any headers on AXIS.
1185
1186    If P0 is nonzero, then it is a number of pixels to exclude from the left or
1187    top (according to AXIS) of cell Z0.  Similarly, P1 is a number of pixels to
1188    exclude from the right or bottom of cell Z1 - 1.  (P0 and P1 are used to
1189    render cells that are too large to fit on a single page.)
1190
1191    The whole of axis !AXIS is included.  (The caller may follow up with another
1192    call to render_page_select() to select on !AXIS to select on that axis as
1193    well.)
1194
1195    The caller retains ownership of PAGE, which is not modified. */
1196 static struct render_page *
1197 render_page_select (const struct render_page *page, enum table_axis axis,
1198                     int z0, int p0, int z1, int p1)
1199 {
1200   struct render_page_selection s;
1201   enum table_axis a = axis;
1202   enum table_axis b = !a;
1203   struct render_page *subpage;
1204   struct render_overflow *ro;
1205   int *dcp, *scp;
1206   int *jc;
1207   int z;
1208
1209
1210   /* Optimize case where all of PAGE is selected by just incrementing the
1211      reference count. */
1212   if (z0 == page->h[a][0] && p0 == 0
1213       && z1 == page->n[a] - page->h[a][1] && p1 == 0)
1214     {
1215       struct render_page *page_rw = CONST_CAST (struct render_page *, page);
1216       page_rw->ref_cnt++;
1217       return page_rw;
1218     }
1219
1220   /* Allocate subpage. */
1221   subpage = render_page_allocate (page->params,
1222                                   table_select_slice (
1223                                     table_ref (page->table),
1224                                     a, z0, z1, true));
1225
1226   /* An edge is cut off if it was cut off in PAGE or if we're trimming pixels
1227      off that side of the page and there are no headers. */
1228   subpage->is_edge_cutoff[a][0] =
1229     subpage->h[a][0] == 0 && (p0 || (z0 == 0 && page->is_edge_cutoff[a][0]));
1230   subpage->is_edge_cutoff[a][1] =
1231     subpage->h[a][1] == 0 && (p1 || (z1 == page->n[a]
1232                                      && page->is_edge_cutoff[a][1]));
1233   subpage->is_edge_cutoff[b][0] = page->is_edge_cutoff[b][0];
1234   subpage->is_edge_cutoff[b][1] = page->is_edge_cutoff[b][1];
1235
1236   /* Select join crossings from PAGE into subpage. */
1237   jc = subpage->join_crossing[a];
1238   for (z = 0; z < page->h[a][0]; z++)
1239     *jc++ = page->join_crossing[a][z];
1240   for (z = z0; z <= z1; z++)
1241     *jc++ = page->join_crossing[a][z];
1242   for (z = page->n[a] - page->h[a][1]; z < page->n[a]; z++)
1243     *jc++ = page->join_crossing[a][z];
1244   assert (jc == &subpage->join_crossing[a][subpage->n[a] + 1]);
1245
1246   memcpy (subpage->join_crossing[b], page->join_crossing[b],
1247           (subpage->n[b] + 1) * sizeof **subpage->join_crossing);
1248
1249   /* Select widths from PAGE into subpage. */
1250   scp = page->cp[a];
1251   dcp = subpage->cp[a];
1252   *dcp = 0;
1253   for (z = 0; z <= rule_ofs (subpage->h[a][0]); z++, dcp++)
1254     dcp[1] = dcp[0] + (scp[z + 1] - scp[z]);
1255   for (z = cell_ofs (z0); z <= cell_ofs (z1 - 1); z++, dcp++)
1256     {
1257       dcp[1] = dcp[0] + (scp[z + 1] - scp[z]);
1258       if (z == cell_ofs (z0))
1259         {
1260           dcp[1] -= p0;
1261           if (page->h[a][0] && page->h[a][1])
1262             dcp[1] += page->join_crossing[a][z / 2];
1263         }
1264       if (z == cell_ofs (z1 - 1))
1265         dcp[1] -= p1;
1266     }
1267   for (z = rule_ofs_r (page, a, subpage->h[a][1]);
1268        z <= rule_ofs_r (page, a, 0); z++, dcp++)
1269     dcp[1] = dcp[0] + (scp[z + 1] - scp[z]);
1270   assert (dcp == &subpage->cp[a][2 * subpage->n[a] + 1]);
1271
1272   for (z = 0; z < page->n[b] * 2 + 2; z++)
1273     subpage->cp[b][z] = page->cp[b][z];
1274
1275   /* Add new overflows. */
1276   s.page = page;
1277   s.a = a;
1278   s.b = b;
1279   s.z0 = z0;
1280   s.z1 = z1;
1281   s.p0 = p0;
1282   s.p1 = p1;
1283   s.subpage = subpage;
1284
1285   for (z = 0; z < page->n[b]; z++)
1286     {
1287       struct table_cell cell;
1288       int d[TABLE_N_AXES];
1289
1290       d[a] = z0;
1291       d[b] = z;
1292       table_get_cell (page->table, d[H], d[V], &cell);
1293       if ((z == cell.d[b][0] && (p0 || cell.d[a][0] < z0))
1294           || (z == cell.d[b][1] - 1 && p1))
1295         {
1296           ro = insert_overflow (&s, &cell);
1297           ro->overflow[a][0] += p0 + axis_width (page, a,
1298                                                  cell_ofs (cell.d[a][0]),
1299                                                  cell_ofs (z0));
1300           if (z1 == z0 + 1)
1301             ro->overflow[a][1] += p1;
1302           if (page->h[a][0] && page->h[a][1])
1303             ro->overflow[a][0] -= page->join_crossing[a][cell.d[a][0] + 1];
1304           if (cell.d[a][1] > z1)
1305             ro->overflow[a][1] += axis_width (page, a, cell_ofs (z1),
1306                                               cell_ofs (cell.d[a][1]));
1307         }
1308       table_cell_free (&cell);
1309     }
1310
1311   for (z = 0; z < page->n[b]; z++)
1312     {
1313       struct table_cell cell;
1314       int d[TABLE_N_AXES];
1315
1316       /* XXX need to handle p1 below */
1317       d[a] = z1 - 1;
1318       d[b] = z;
1319       table_get_cell (page->table, d[H], d[V], &cell);
1320       if (z == cell.d[b][0] && cell.d[a][1] > z1
1321           && find_overflow_for_cell (&s, &cell) == NULL)
1322         {
1323           ro = insert_overflow (&s, &cell);
1324           ro->overflow[a][1] += axis_width (page, a, cell_ofs (z1),
1325                                             cell_ofs (cell.d[a][1]));
1326         }
1327       table_cell_free (&cell);
1328     }
1329
1330   /* Copy overflows from PAGE into subpage. */
1331   HMAP_FOR_EACH (ro, struct render_overflow, node, &page->overflows)
1332     {
1333       struct table_cell cell;
1334
1335       table_get_cell (page->table, ro->d[H], ro->d[V], &cell);
1336       if (cell.d[a][1] > z0 && cell.d[a][0] < z1
1337           && find_overflow_for_cell (&s, &cell) == NULL)
1338         insert_overflow (&s, &cell);
1339       table_cell_free (&cell);
1340     }
1341
1342   return subpage;
1343 }
1344
1345 /* Given CELL, a table_cell within S->page, stores in SUBCELL the (x,y)
1346    coordinates of the top-left cell as it will appear in S->subpage.
1347
1348    CELL must actually intersect the region of S->page that is being selected
1349    by render_page_select() or the results will not make any sense. */
1350 static void
1351 cell_to_subpage (struct render_page_selection *s,
1352                  const struct table_cell *cell, int subcell[TABLE_N_AXES])
1353 {
1354   enum table_axis a = s->a;
1355   enum table_axis b = s->b;
1356   int ha0 = s->subpage->h[a][0];
1357
1358   subcell[a] = MAX (cell->d[a][0] - s->z0 + ha0, ha0);
1359   subcell[b] = cell->d[b][0];
1360 }
1361
1362 /* Given CELL, a table_cell within S->page, returns the render_overflow for
1363    that cell in S->subpage, if there is one, and a null pointer otherwise.
1364
1365    CELL must actually intersect the region of S->page that is being selected
1366    by render_page_select() or the results will not make any sense. */
1367 static const struct render_overflow *
1368 find_overflow_for_cell (struct render_page_selection *s,
1369                         const struct table_cell *cell)
1370 {
1371   int subcell[2];
1372
1373   cell_to_subpage (s, cell, subcell);
1374   return find_overflow (s->subpage, subcell[H], subcell[V]);
1375 }
1376
1377 /* Given CELL, a table_cell within S->page, inserts a render_overflow for that
1378    cell in S->subpage (which must not already exist).  Initializes the new
1379    render_overflow's 'overflow' member from the overflow for CELL in S->page,
1380    if there is one.
1381
1382    CELL must actually intersect the region of S->page that is being selected
1383    by render_page_select() or the results will not make any sense. */
1384 static struct render_overflow *
1385 insert_overflow (struct render_page_selection *s,
1386                  const struct table_cell *cell)
1387 {
1388   const struct render_overflow *old;
1389   struct render_overflow *of;
1390
1391   of = xzalloc (sizeof *of);
1392   cell_to_subpage (s, cell, of->d);
1393   hmap_insert (&s->subpage->overflows, &of->node,
1394                hash_overflow (of->d[H], of->d[V]));
1395
1396   old = find_overflow (s->page, cell->d[H][0], cell->d[V][0]);
1397   if (old != NULL)
1398     memcpy (of->overflow, old->overflow, sizeof of->overflow);
1399
1400   return of;
1401 }