New action NXAST_RESUBMIT_TABLE.
[openvswitch] / lib / dpif-netdev.c
1 /*
2  * Copyright (c) 2009, 2010, 2011 Nicira Networks.
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at:
7  *
8  *     http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #include <config.h>
18 #include "dpif.h"
19
20 #include <assert.h>
21 #include <ctype.h>
22 #include <errno.h>
23 #include <fcntl.h>
24 #include <inttypes.h>
25 #include <netinet/in.h>
26 #include <sys/socket.h>
27 #include <net/if.h>
28 #include <stdint.h>
29 #include <stdlib.h>
30 #include <string.h>
31 #include <sys/ioctl.h>
32 #include <sys/stat.h>
33 #include <unistd.h>
34
35 #include "csum.h"
36 #include "dpif.h"
37 #include "dpif-provider.h"
38 #include "dummy.h"
39 #include "dynamic-string.h"
40 #include "flow.h"
41 #include "hmap.h"
42 #include "list.h"
43 #include "netdev.h"
44 #include "netlink.h"
45 #include "odp-util.h"
46 #include "ofp-print.h"
47 #include "ofpbuf.h"
48 #include "packets.h"
49 #include "poll-loop.h"
50 #include "shash.h"
51 #include "timeval.h"
52 #include "util.h"
53 #include "vlog.h"
54
55 VLOG_DEFINE_THIS_MODULE(dpif_netdev);
56
57 /* Configuration parameters. */
58 enum { MAX_PORTS = 256 };       /* Maximum number of ports. */
59 enum { MAX_FLOWS = 65536 };     /* Maximum number of flows in flow table. */
60
61 /* Enough headroom to add a vlan tag, plus an extra 2 bytes to allow IP
62  * headers to be aligned on a 4-byte boundary.  */
63 enum { DP_NETDEV_HEADROOM = 2 + VLAN_HEADER_LEN };
64
65 /* Queues. */
66 enum { N_QUEUES = 2 };          /* Number of queues for dpif_recv(). */
67 enum { MAX_QUEUE_LEN = 128 };   /* Maximum number of packets per queue. */
68 enum { QUEUE_MASK = MAX_QUEUE_LEN - 1 };
69 BUILD_ASSERT_DECL(IS_POW2(MAX_QUEUE_LEN));
70
71 struct dp_netdev_queue {
72     struct dpif_upcall *upcalls[MAX_QUEUE_LEN];
73     unsigned int head, tail;
74 };
75
76 /* Datapath based on the network device interface from netdev.h. */
77 struct dp_netdev {
78     const struct dpif_class *class;
79     char *name;
80     int open_cnt;
81     bool destroyed;
82
83     bool drop_frags;            /* Drop all IP fragments, if true. */
84     struct dp_netdev_queue queues[N_QUEUES];
85     struct hmap flow_table;     /* Flow table. */
86
87     /* Statistics. */
88     long long int n_frags;      /* Number of dropped IP fragments. */
89     long long int n_hit;        /* Number of flow table matches. */
90     long long int n_missed;     /* Number of flow table misses. */
91     long long int n_lost;       /* Number of misses not passed to client. */
92
93     /* Ports. */
94     int n_ports;
95     struct dp_netdev_port *ports[MAX_PORTS];
96     struct list port_list;
97     unsigned int serial;
98 };
99
100 /* A port in a netdev-based datapath. */
101 struct dp_netdev_port {
102     int port_no;                /* Index into dp_netdev's 'ports'. */
103     struct list node;           /* Element in dp_netdev's 'port_list'. */
104     struct netdev *netdev;
105     bool internal;              /* Internal port? */
106 };
107
108 /* A flow in dp_netdev's 'flow_table'. */
109 struct dp_netdev_flow {
110     struct hmap_node node;      /* Element in dp_netdev's 'flow_table'. */
111     struct flow key;
112
113     /* Statistics. */
114     long long int used;         /* Last used time, in monotonic msecs. */
115     long long int packet_count; /* Number of packets matched. */
116     long long int byte_count;   /* Number of bytes matched. */
117     ovs_be16 tcp_ctl;           /* Bitwise-OR of seen tcp_ctl values. */
118
119     /* Actions. */
120     struct nlattr *actions;
121     size_t actions_len;
122 };
123
124 /* Interface to netdev-based datapath. */
125 struct dpif_netdev {
126     struct dpif dpif;
127     struct dp_netdev *dp;
128     int listen_mask;
129     unsigned int dp_serial;
130 };
131
132 /* All netdev-based datapaths. */
133 static struct shash dp_netdevs = SHASH_INITIALIZER(&dp_netdevs);
134
135 /* Maximum port MTU seen so far. */
136 static int max_mtu = ETH_PAYLOAD_MAX;
137
138 static int get_port_by_number(struct dp_netdev *, uint16_t port_no,
139                               struct dp_netdev_port **portp);
140 static int get_port_by_name(struct dp_netdev *, const char *devname,
141                             struct dp_netdev_port **portp);
142 static void dp_netdev_free(struct dp_netdev *);
143 static void dp_netdev_flow_flush(struct dp_netdev *);
144 static int do_add_port(struct dp_netdev *, const char *devname,
145                        const char *type, uint16_t port_no);
146 static int do_del_port(struct dp_netdev *, uint16_t port_no);
147 static int dpif_netdev_open(const struct dpif_class *, const char *name,
148                             bool create, struct dpif **);
149 static int dp_netdev_output_userspace(struct dp_netdev *, const struct ofpbuf *,
150                                     int queue_no, const struct flow *,
151                                     uint64_t arg);
152 static int dp_netdev_execute_actions(struct dp_netdev *,
153                                      struct ofpbuf *, struct flow *,
154                                      const struct nlattr *actions,
155                                      size_t actions_len);
156
157 static struct dpif_class dpif_dummy_class;
158
159 static struct dpif_netdev *
160 dpif_netdev_cast(const struct dpif *dpif)
161 {
162     assert(dpif->dpif_class->open == dpif_netdev_open);
163     return CONTAINER_OF(dpif, struct dpif_netdev, dpif);
164 }
165
166 static struct dp_netdev *
167 get_dp_netdev(const struct dpif *dpif)
168 {
169     return dpif_netdev_cast(dpif)->dp;
170 }
171
172 static struct dpif *
173 create_dpif_netdev(struct dp_netdev *dp)
174 {
175     uint16_t netflow_id = hash_string(dp->name, 0);
176     struct dpif_netdev *dpif;
177
178     dp->open_cnt++;
179
180     dpif = xmalloc(sizeof *dpif);
181     dpif_init(&dpif->dpif, dp->class, dp->name, netflow_id >> 8, netflow_id);
182     dpif->dp = dp;
183     dpif->listen_mask = 0;
184     dpif->dp_serial = dp->serial;
185
186     return &dpif->dpif;
187 }
188
189 static int
190 create_dp_netdev(const char *name, const struct dpif_class *class,
191                  struct dp_netdev **dpp)
192 {
193     struct dp_netdev *dp;
194     int error;
195     int i;
196
197     dp = xzalloc(sizeof *dp);
198     dp->class = class;
199     dp->name = xstrdup(name);
200     dp->open_cnt = 0;
201     dp->drop_frags = false;
202     for (i = 0; i < N_QUEUES; i++) {
203         dp->queues[i].head = dp->queues[i].tail = 0;
204     }
205     hmap_init(&dp->flow_table);
206     list_init(&dp->port_list);
207     error = do_add_port(dp, name, "internal", ODPP_LOCAL);
208     if (error) {
209         dp_netdev_free(dp);
210         return error;
211     }
212
213     shash_add(&dp_netdevs, name, dp);
214
215     *dpp = dp;
216     return 0;
217 }
218
219 static int
220 dpif_netdev_open(const struct dpif_class *class, const char *name,
221                  bool create, struct dpif **dpifp)
222 {
223     struct dp_netdev *dp;
224
225     dp = shash_find_data(&dp_netdevs, name);
226     if (!dp) {
227         if (!create) {
228             return ENODEV;
229         } else {
230             int error = create_dp_netdev(name, class, &dp);
231             if (error) {
232                 return error;
233             }
234             assert(dp != NULL);
235         }
236     } else {
237         if (dp->class != class) {
238             return EINVAL;
239         } else if (create) {
240             return EEXIST;
241         }
242     }
243
244     *dpifp = create_dpif_netdev(dp);
245     return 0;
246 }
247
248 static void
249 dp_netdev_purge_queues(struct dp_netdev *dp)
250 {
251     int i;
252
253     for (i = 0; i < N_QUEUES; i++) {
254         struct dp_netdev_queue *q = &dp->queues[i];
255
256         while (q->tail != q->head) {
257             struct dpif_upcall *upcall = q->upcalls[q->tail++ & QUEUE_MASK];
258
259             ofpbuf_delete(upcall->packet);
260             free(upcall);
261         }
262     }
263 }
264
265 static void
266 dp_netdev_free(struct dp_netdev *dp)
267 {
268     dp_netdev_flow_flush(dp);
269     while (dp->n_ports > 0) {
270         struct dp_netdev_port *port = CONTAINER_OF(
271             dp->port_list.next, struct dp_netdev_port, node);
272         do_del_port(dp, port->port_no);
273     }
274     dp_netdev_purge_queues(dp);
275     hmap_destroy(&dp->flow_table);
276     free(dp->name);
277     free(dp);
278 }
279
280 static void
281 dpif_netdev_close(struct dpif *dpif)
282 {
283     struct dp_netdev *dp = get_dp_netdev(dpif);
284     assert(dp->open_cnt > 0);
285     if (--dp->open_cnt == 0 && dp->destroyed) {
286         shash_find_and_delete(&dp_netdevs, dp->name);
287         dp_netdev_free(dp);
288     }
289     free(dpif);
290 }
291
292 static int
293 dpif_netdev_destroy(struct dpif *dpif)
294 {
295     struct dp_netdev *dp = get_dp_netdev(dpif);
296     dp->destroyed = true;
297     return 0;
298 }
299
300 static int
301 dpif_netdev_get_stats(const struct dpif *dpif, struct odp_stats *stats)
302 {
303     struct dp_netdev *dp = get_dp_netdev(dpif);
304     memset(stats, 0, sizeof *stats);
305     stats->n_flows = hmap_count(&dp->flow_table);
306     stats->n_frags = dp->n_frags;
307     stats->n_hit = dp->n_hit;
308     stats->n_missed = dp->n_missed;
309     stats->n_lost = dp->n_lost;
310     return 0;
311 }
312
313 static int
314 dpif_netdev_get_drop_frags(const struct dpif *dpif, bool *drop_fragsp)
315 {
316     struct dp_netdev *dp = get_dp_netdev(dpif);
317     *drop_fragsp = dp->drop_frags;
318     return 0;
319 }
320
321 static int
322 dpif_netdev_set_drop_frags(struct dpif *dpif, bool drop_frags)
323 {
324     struct dp_netdev *dp = get_dp_netdev(dpif);
325     dp->drop_frags = drop_frags;
326     return 0;
327 }
328
329 static int
330 do_add_port(struct dp_netdev *dp, const char *devname, const char *type,
331             uint16_t port_no)
332 {
333     struct dp_netdev_port *port;
334     struct netdev *netdev;
335     bool internal;
336     int mtu;
337     int error;
338
339     /* XXX reject devices already in some dp_netdev. */
340     if (type[0] == '\0' || !strcmp(type, "system")) {
341         internal = false;
342     } else if (!strcmp(type, "internal")) {
343         internal = true;
344     } else {
345         VLOG_WARN("%s: unsupported port type %s", devname, type);
346         return EINVAL;
347     }
348
349     /* Open and validate network device. */
350     if (dp->class == &dpif_dummy_class) {
351         type = "dummy";
352     } else if (internal) {
353         type = "tap";
354     }
355
356     error = netdev_open(devname, type, &netdev);
357     if (error) {
358         return error;
359     }
360     /* XXX reject loopback devices */
361     /* XXX reject non-Ethernet devices */
362
363     error = netdev_listen(netdev);
364     if (error) {
365         VLOG_ERR("%s: cannot receive packets on this network device (%s)",
366                  devname, strerror(errno));
367         netdev_close(netdev);
368         return error;
369     }
370
371     error = netdev_turn_flags_on(netdev, NETDEV_PROMISC, false);
372     if (error) {
373         netdev_close(netdev);
374         return error;
375     }
376
377     port = xmalloc(sizeof *port);
378     port->port_no = port_no;
379     port->netdev = netdev;
380     port->internal = internal;
381
382     netdev_get_mtu(netdev, &mtu);
383     if (mtu != INT_MAX && mtu > max_mtu) {
384         max_mtu = mtu;
385     }
386
387     list_push_back(&dp->port_list, &port->node);
388     dp->ports[port_no] = port;
389     dp->n_ports++;
390     dp->serial++;
391
392     return 0;
393 }
394
395 static int
396 dpif_netdev_port_add(struct dpif *dpif, struct netdev *netdev,
397                      uint16_t *port_nop)
398 {
399     struct dp_netdev *dp = get_dp_netdev(dpif);
400     int port_no;
401
402     for (port_no = 0; port_no < MAX_PORTS; port_no++) {
403         if (!dp->ports[port_no]) {
404             *port_nop = port_no;
405             return do_add_port(dp, netdev_get_name(netdev),
406                                netdev_get_type(netdev), port_no);
407         }
408     }
409     return EFBIG;
410 }
411
412 static int
413 dpif_netdev_port_del(struct dpif *dpif, uint16_t port_no)
414 {
415     struct dp_netdev *dp = get_dp_netdev(dpif);
416     return port_no == ODPP_LOCAL ? EINVAL : do_del_port(dp, port_no);
417 }
418
419 static bool
420 is_valid_port_number(uint16_t port_no)
421 {
422     return port_no < MAX_PORTS;
423 }
424
425 static int
426 get_port_by_number(struct dp_netdev *dp,
427                    uint16_t port_no, struct dp_netdev_port **portp)
428 {
429     if (!is_valid_port_number(port_no)) {
430         *portp = NULL;
431         return EINVAL;
432     } else {
433         *portp = dp->ports[port_no];
434         return *portp ? 0 : ENOENT;
435     }
436 }
437
438 static int
439 get_port_by_name(struct dp_netdev *dp,
440                  const char *devname, struct dp_netdev_port **portp)
441 {
442     struct dp_netdev_port *port;
443
444     LIST_FOR_EACH (port, node, &dp->port_list) {
445         if (!strcmp(netdev_get_name(port->netdev), devname)) {
446             *portp = port;
447             return 0;
448         }
449     }
450     return ENOENT;
451 }
452
453 static int
454 do_del_port(struct dp_netdev *dp, uint16_t port_no)
455 {
456     struct dp_netdev_port *port;
457     char *name;
458     int error;
459
460     error = get_port_by_number(dp, port_no, &port);
461     if (error) {
462         return error;
463     }
464
465     list_remove(&port->node);
466     dp->ports[port->port_no] = NULL;
467     dp->n_ports--;
468     dp->serial++;
469
470     name = xstrdup(netdev_get_name(port->netdev));
471     netdev_close(port->netdev);
472
473     free(name);
474     free(port);
475
476     return 0;
477 }
478
479 static void
480 answer_port_query(const struct dp_netdev_port *port,
481                   struct dpif_port *dpif_port)
482 {
483     dpif_port->name = xstrdup(netdev_get_name(port->netdev));
484     dpif_port->type = xstrdup(port->internal ? "internal" : "system");
485     dpif_port->port_no = port->port_no;
486 }
487
488 static int
489 dpif_netdev_port_query_by_number(const struct dpif *dpif, uint16_t port_no,
490                                  struct dpif_port *dpif_port)
491 {
492     struct dp_netdev *dp = get_dp_netdev(dpif);
493     struct dp_netdev_port *port;
494     int error;
495
496     error = get_port_by_number(dp, port_no, &port);
497     if (!error) {
498         answer_port_query(port, dpif_port);
499     }
500     return error;
501 }
502
503 static int
504 dpif_netdev_port_query_by_name(const struct dpif *dpif, const char *devname,
505                                struct dpif_port *dpif_port)
506 {
507     struct dp_netdev *dp = get_dp_netdev(dpif);
508     struct dp_netdev_port *port;
509     int error;
510
511     error = get_port_by_name(dp, devname, &port);
512     if (!error) {
513         answer_port_query(port, dpif_port);
514     }
515     return error;
516 }
517
518 static int
519 dpif_netdev_get_max_ports(const struct dpif *dpif OVS_UNUSED)
520 {
521     return MAX_PORTS;
522 }
523
524 static void
525 dp_netdev_free_flow(struct dp_netdev *dp, struct dp_netdev_flow *flow)
526 {
527     hmap_remove(&dp->flow_table, &flow->node);
528     free(flow->actions);
529     free(flow);
530 }
531
532 static void
533 dp_netdev_flow_flush(struct dp_netdev *dp)
534 {
535     struct dp_netdev_flow *flow, *next;
536
537     HMAP_FOR_EACH_SAFE (flow, next, node, &dp->flow_table) {
538         dp_netdev_free_flow(dp, flow);
539     }
540 }
541
542 static int
543 dpif_netdev_flow_flush(struct dpif *dpif)
544 {
545     struct dp_netdev *dp = get_dp_netdev(dpif);
546     dp_netdev_flow_flush(dp);
547     return 0;
548 }
549
550 struct dp_netdev_port_state {
551     uint32_t port_no;
552     char *name;
553 };
554
555 static int
556 dpif_netdev_port_dump_start(const struct dpif *dpif OVS_UNUSED, void **statep)
557 {
558     *statep = xzalloc(sizeof(struct dp_netdev_port_state));
559     return 0;
560 }
561
562 static int
563 dpif_netdev_port_dump_next(const struct dpif *dpif, void *state_,
564                            struct dpif_port *dpif_port)
565 {
566     struct dp_netdev_port_state *state = state_;
567     struct dp_netdev *dp = get_dp_netdev(dpif);
568     uint32_t port_no;
569
570     for (port_no = state->port_no; port_no < MAX_PORTS; port_no++) {
571         struct dp_netdev_port *port = dp->ports[port_no];
572         if (port) {
573             free(state->name);
574             state->name = xstrdup(netdev_get_name(port->netdev));
575             dpif_port->name = state->name;
576             dpif_port->type = port->internal ? "internal" : "system";
577             dpif_port->port_no = port->port_no;
578             state->port_no = port_no + 1;
579             return 0;
580         }
581     }
582     return EOF;
583 }
584
585 static int
586 dpif_netdev_port_dump_done(const struct dpif *dpif OVS_UNUSED, void *state_)
587 {
588     struct dp_netdev_port_state *state = state_;
589     free(state->name);
590     free(state);
591     return 0;
592 }
593
594 static int
595 dpif_netdev_port_poll(const struct dpif *dpif_, char **devnamep OVS_UNUSED)
596 {
597     struct dpif_netdev *dpif = dpif_netdev_cast(dpif_);
598     if (dpif->dp_serial != dpif->dp->serial) {
599         dpif->dp_serial = dpif->dp->serial;
600         return ENOBUFS;
601     } else {
602         return EAGAIN;
603     }
604 }
605
606 static void
607 dpif_netdev_port_poll_wait(const struct dpif *dpif_)
608 {
609     struct dpif_netdev *dpif = dpif_netdev_cast(dpif_);
610     if (dpif->dp_serial != dpif->dp->serial) {
611         poll_immediate_wake();
612     }
613 }
614
615 static struct dp_netdev_flow *
616 dp_netdev_lookup_flow(const struct dp_netdev *dp, const struct flow *key)
617 {
618     struct dp_netdev_flow *flow;
619
620     HMAP_FOR_EACH_WITH_HASH (flow, node, flow_hash(key, 0), &dp->flow_table) {
621         if (flow_equal(&flow->key, key)) {
622             return flow;
623         }
624     }
625     return NULL;
626 }
627
628 static void
629 get_dpif_flow_stats(struct dp_netdev_flow *flow, struct dpif_flow_stats *stats)
630 {
631     stats->n_packets = flow->packet_count;
632     stats->n_bytes = flow->byte_count;
633     stats->used = flow->used;
634     stats->tcp_flags = TCP_FLAGS(flow->tcp_ctl);
635 }
636
637 static int
638 dpif_netdev_flow_from_nlattrs(const struct nlattr *key, uint32_t key_len,
639                               struct flow *flow)
640 {
641     if (odp_flow_key_to_flow(key, key_len, flow)) {
642         /* This should not happen: it indicates that odp_flow_key_from_flow()
643          * and odp_flow_key_to_flow() disagree on the acceptable form of a
644          * flow.  Log the problem as an error, with enough details to enable
645          * debugging. */
646         static struct vlog_rate_limit rl = VLOG_RATE_LIMIT_INIT(1, 5);
647
648         if (!VLOG_DROP_ERR(&rl)) {
649             struct ds s;
650
651             ds_init(&s);
652             odp_flow_key_format(key, key_len, &s);
653             VLOG_ERR("internal error parsing flow key %s", ds_cstr(&s));
654             ds_destroy(&s);
655         }
656
657         return EINVAL;
658     }
659
660     return 0;
661 }
662
663 static int
664 dpif_netdev_flow_get(const struct dpif *dpif,
665                      const struct nlattr *nl_key, size_t nl_key_len,
666                      struct ofpbuf **actionsp, struct dpif_flow_stats *stats)
667 {
668     struct dp_netdev *dp = get_dp_netdev(dpif);
669     struct dp_netdev_flow *flow;
670     struct flow key;
671     int error;
672
673     error = dpif_netdev_flow_from_nlattrs(nl_key, nl_key_len, &key);
674     if (error) {
675         return error;
676     }
677
678     flow = dp_netdev_lookup_flow(dp, &key);
679     if (!flow) {
680         return ENOENT;
681     }
682
683     if (stats) {
684         get_dpif_flow_stats(flow, stats);
685     }
686     if (actionsp) {
687         *actionsp = ofpbuf_clone_data(flow->actions, flow->actions_len);
688     }
689     return 0;
690 }
691
692 static int
693 dpif_netdev_validate_actions(const struct nlattr *actions,
694                              size_t actions_len, bool *mutates)
695 {
696     const struct nlattr *a;
697     unsigned int left;
698
699     *mutates = false;
700     NL_ATTR_FOR_EACH (a, left, actions, actions_len) {
701         uint16_t type = nl_attr_type(a);
702         int len = odp_action_len(type);
703
704         if (len != nl_attr_get_size(a)) {
705             return EINVAL;
706         }
707
708         switch (type) {
709         case ODP_ACTION_ATTR_OUTPUT:
710             if (nl_attr_get_u32(a) >= MAX_PORTS) {
711                 return EINVAL;
712             }
713             break;
714
715         case ODP_ACTION_ATTR_USERSPACE:
716             break;
717
718         case ODP_ACTION_ATTR_SET_DL_TCI:
719             *mutates = true;
720             if (nl_attr_get_be16(a) & htons(VLAN_CFI)) {
721                 return EINVAL;
722             }
723             break;
724
725         case ODP_ACTION_ATTR_SET_NW_TOS:
726             *mutates = true;
727             if (nl_attr_get_u8(a) & IP_ECN_MASK) {
728                 return EINVAL;
729             }
730             break;
731
732         case ODP_ACTION_ATTR_STRIP_VLAN:
733         case ODP_ACTION_ATTR_SET_DL_SRC:
734         case ODP_ACTION_ATTR_SET_DL_DST:
735         case ODP_ACTION_ATTR_SET_NW_SRC:
736         case ODP_ACTION_ATTR_SET_NW_DST:
737         case ODP_ACTION_ATTR_SET_TP_SRC:
738         case ODP_ACTION_ATTR_SET_TP_DST:
739             *mutates = true;
740             break;
741
742         case ODP_ACTION_ATTR_SET_TUNNEL:
743         case ODP_ACTION_ATTR_SET_PRIORITY:
744         case ODP_ACTION_ATTR_POP_PRIORITY:
745         default:
746             return EOPNOTSUPP;
747         }
748     }
749     return 0;
750 }
751
752 static int
753 set_flow_actions(struct dp_netdev_flow *flow,
754                  const struct nlattr *actions, size_t actions_len)
755 {
756     bool mutates;
757     int error;
758
759     error = dpif_netdev_validate_actions(actions, actions_len, &mutates);
760     if (error) {
761         return error;
762     }
763
764     flow->actions = xrealloc(flow->actions, actions_len);
765     flow->actions_len = actions_len;
766     memcpy(flow->actions, actions, actions_len);
767     return 0;
768 }
769
770 static int
771 add_flow(struct dpif *dpif, const struct flow *key,
772          const struct nlattr *actions, size_t actions_len)
773 {
774     struct dp_netdev *dp = get_dp_netdev(dpif);
775     struct dp_netdev_flow *flow;
776     int error;
777
778     flow = xzalloc(sizeof *flow);
779     flow->key = *key;
780
781     error = set_flow_actions(flow, actions, actions_len);
782     if (error) {
783         free(flow);
784         return error;
785     }
786
787     hmap_insert(&dp->flow_table, &flow->node, flow_hash(&flow->key, 0));
788     return 0;
789 }
790
791 static void
792 clear_stats(struct dp_netdev_flow *flow)
793 {
794     flow->used = 0;
795     flow->packet_count = 0;
796     flow->byte_count = 0;
797     flow->tcp_ctl = 0;
798 }
799
800 static int
801 dpif_netdev_flow_put(struct dpif *dpif, enum dpif_flow_put_flags flags,
802                     const struct nlattr *nl_key, size_t nl_key_len,
803                     const struct nlattr *actions, size_t actions_len,
804                     struct dpif_flow_stats *stats)
805 {
806     struct dp_netdev *dp = get_dp_netdev(dpif);
807     struct dp_netdev_flow *flow;
808     struct flow key;
809     int error;
810
811     error = dpif_netdev_flow_from_nlattrs(nl_key, nl_key_len, &key);
812     if (error) {
813         return error;
814     }
815
816     flow = dp_netdev_lookup_flow(dp, &key);
817     if (!flow) {
818         if (flags & DPIF_FP_CREATE) {
819             if (hmap_count(&dp->flow_table) < MAX_FLOWS) {
820                 if (stats) {
821                     memset(stats, 0, sizeof *stats);
822                 }
823                 return add_flow(dpif, &key, actions, actions_len);
824             } else {
825                 return EFBIG;
826             }
827         } else {
828             return ENOENT;
829         }
830     } else {
831         if (flags & DPIF_FP_MODIFY) {
832             int error = set_flow_actions(flow, actions, actions_len);
833             if (!error) {
834                 if (stats) {
835                     get_dpif_flow_stats(flow, stats);
836                 }
837                 if (flags & DPIF_FP_ZERO_STATS) {
838                     clear_stats(flow);
839                 }
840             }
841             return error;
842         } else {
843             return EEXIST;
844         }
845     }
846 }
847
848 static int
849 dpif_netdev_flow_del(struct dpif *dpif,
850                      const struct nlattr *nl_key, size_t nl_key_len,
851                      struct dpif_flow_stats *stats)
852 {
853     struct dp_netdev *dp = get_dp_netdev(dpif);
854     struct dp_netdev_flow *flow;
855     struct flow key;
856     int error;
857
858     error = dpif_netdev_flow_from_nlattrs(nl_key, nl_key_len, &key);
859     if (error) {
860         return error;
861     }
862
863     flow = dp_netdev_lookup_flow(dp, &key);
864     if (flow) {
865         if (stats) {
866             get_dpif_flow_stats(flow, stats);
867         }
868         dp_netdev_free_flow(dp, flow);
869         return 0;
870     } else {
871         return ENOENT;
872     }
873 }
874
875 struct dp_netdev_flow_state {
876     uint32_t bucket;
877     uint32_t offset;
878     struct nlattr *actions;
879     struct odputil_keybuf keybuf;
880     struct dpif_flow_stats stats;
881 };
882
883 static int
884 dpif_netdev_flow_dump_start(const struct dpif *dpif OVS_UNUSED, void **statep)
885 {
886     struct dp_netdev_flow_state *state;
887
888     *statep = state = xmalloc(sizeof *state);
889     state->bucket = 0;
890     state->offset = 0;
891     state->actions = NULL;
892     return 0;
893 }
894
895 static int
896 dpif_netdev_flow_dump_next(const struct dpif *dpif, void *state_,
897                            const struct nlattr **key, size_t *key_len,
898                            const struct nlattr **actions, size_t *actions_len,
899                            const struct dpif_flow_stats **stats)
900 {
901     struct dp_netdev_flow_state *state = state_;
902     struct dp_netdev *dp = get_dp_netdev(dpif);
903     struct dp_netdev_flow *flow;
904     struct hmap_node *node;
905
906     node = hmap_at_position(&dp->flow_table, &state->bucket, &state->offset);
907     if (!node) {
908         return EOF;
909     }
910
911     flow = CONTAINER_OF(node, struct dp_netdev_flow, node);
912
913     if (key) {
914         struct ofpbuf buf;
915
916         ofpbuf_use_stack(&buf, &state->keybuf, sizeof state->keybuf);
917         odp_flow_key_from_flow(&buf, &flow->key);
918
919         *key = buf.data;
920         *key_len = buf.size;
921     }
922
923     if (actions) {
924         free(state->actions);
925         state->actions = xmemdup(flow->actions, flow->actions_len);
926
927         *actions = state->actions;
928         *actions_len = flow->actions_len;
929     }
930
931     if (stats) {
932         get_dpif_flow_stats(flow, &state->stats);
933         *stats = &state->stats;
934     }
935
936     return 0;
937 }
938
939 static int
940 dpif_netdev_flow_dump_done(const struct dpif *dpif OVS_UNUSED, void *state_)
941 {
942     struct dp_netdev_flow_state *state = state_;
943
944     free(state->actions);
945     free(state);
946     return 0;
947 }
948
949 static int
950 dpif_netdev_execute(struct dpif *dpif,
951                     const struct nlattr *key_attrs, size_t key_len,
952                     const struct nlattr *actions, size_t actions_len,
953                     const struct ofpbuf *packet)
954 {
955     struct dp_netdev *dp = get_dp_netdev(dpif);
956     struct ofpbuf copy;
957     bool mutates;
958     struct flow key;
959     int error;
960
961     if (packet->size < ETH_HEADER_LEN || packet->size > UINT16_MAX) {
962         return EINVAL;
963     }
964
965     error = dpif_netdev_validate_actions(actions, actions_len, &mutates);
966     if (error) {
967         return error;
968     }
969
970     if (mutates) {
971         /* We need a deep copy of 'packet' since we're going to modify its
972          * data. */
973         ofpbuf_init(&copy, DP_NETDEV_HEADROOM + packet->size);
974         ofpbuf_reserve(&copy, DP_NETDEV_HEADROOM);
975         ofpbuf_put(&copy, packet->data, packet->size);
976     } else {
977         /* We still need a shallow copy of 'packet', even though we won't
978          * modify its data, because flow_extract() modifies packet->l2, etc.
979          * We could probably get away with modifying those but it's more polite
980          * if we don't. */
981         copy = *packet;
982     }
983
984     flow_extract(&copy, 0, -1, &key);
985     dpif_netdev_flow_from_nlattrs(key_attrs, key_len, &key);
986
987     error = dp_netdev_execute_actions(dp, &copy, &key, actions, actions_len);
988     if (mutates) {
989         ofpbuf_uninit(&copy);
990     }
991     return error;
992 }
993
994 static int
995 dpif_netdev_recv_get_mask(const struct dpif *dpif, int *listen_mask)
996 {
997     struct dpif_netdev *dpif_netdev = dpif_netdev_cast(dpif);
998     *listen_mask = dpif_netdev->listen_mask;
999     return 0;
1000 }
1001
1002 static int
1003 dpif_netdev_recv_set_mask(struct dpif *dpif, int listen_mask)
1004 {
1005     struct dpif_netdev *dpif_netdev = dpif_netdev_cast(dpif);
1006     dpif_netdev->listen_mask = listen_mask;
1007     return 0;
1008 }
1009
1010 static struct dp_netdev_queue *
1011 find_nonempty_queue(struct dpif *dpif)
1012 {
1013     struct dpif_netdev *dpif_netdev = dpif_netdev_cast(dpif);
1014     struct dp_netdev *dp = get_dp_netdev(dpif);
1015     int mask = dpif_netdev->listen_mask;
1016     int i;
1017
1018     for (i = 0; i < N_QUEUES; i++) {
1019         struct dp_netdev_queue *q = &dp->queues[i];
1020         if (q->head != q->tail && mask & (1u << i)) {
1021             return q;
1022         }
1023     }
1024     return NULL;
1025 }
1026
1027 static int
1028 dpif_netdev_recv(struct dpif *dpif, struct dpif_upcall *upcall)
1029 {
1030     struct dp_netdev_queue *q = find_nonempty_queue(dpif);
1031     if (q) {
1032         struct dpif_upcall *u = q->upcalls[q->tail++ & QUEUE_MASK];
1033         *upcall = *u;
1034         free(u);
1035
1036         return 0;
1037     } else {
1038         return EAGAIN;
1039     }
1040 }
1041
1042 static void
1043 dpif_netdev_recv_wait(struct dpif *dpif)
1044 {
1045     if (find_nonempty_queue(dpif)) {
1046         poll_immediate_wake();
1047     } else {
1048         /* No messages ready to be received, and dp_wait() will ensure that we
1049          * wake up to queue new messages, so there is nothing to do. */
1050     }
1051 }
1052
1053 static void
1054 dpif_netdev_recv_purge(struct dpif *dpif)
1055 {
1056     struct dpif_netdev *dpif_netdev = dpif_netdev_cast(dpif);
1057     dp_netdev_purge_queues(dpif_netdev->dp);
1058 }
1059 \f
1060 static void
1061 dp_netdev_flow_used(struct dp_netdev_flow *flow, struct flow *key,
1062                     const struct ofpbuf *packet)
1063 {
1064     flow->used = time_msec();
1065     flow->packet_count++;
1066     flow->byte_count += packet->size;
1067     if (key->dl_type == htons(ETH_TYPE_IP) && key->nw_proto == IPPROTO_TCP) {
1068         struct tcp_header *th = packet->l4;
1069         flow->tcp_ctl |= th->tcp_ctl;
1070     }
1071 }
1072
1073 static void
1074 dp_netdev_port_input(struct dp_netdev *dp, struct dp_netdev_port *port,
1075                      struct ofpbuf *packet)
1076 {
1077     struct dp_netdev_flow *flow;
1078     struct flow key;
1079
1080     if (packet->size < ETH_HEADER_LEN) {
1081         return;
1082     }
1083     if (flow_extract(packet, 0, port->port_no, &key) && dp->drop_frags) {
1084         dp->n_frags++;
1085         return;
1086     }
1087
1088     flow = dp_netdev_lookup_flow(dp, &key);
1089     if (flow) {
1090         dp_netdev_flow_used(flow, &key, packet);
1091         dp_netdev_execute_actions(dp, packet, &key,
1092                                   flow->actions, flow->actions_len);
1093         dp->n_hit++;
1094     } else {
1095         dp->n_missed++;
1096         dp_netdev_output_userspace(dp, packet, DPIF_UC_MISS, &key, 0);
1097     }
1098 }
1099
1100 static void
1101 dpif_netdev_run(struct dpif *dpif)
1102 {
1103     struct dp_netdev *dp = get_dp_netdev(dpif);
1104     struct dp_netdev_port *port;
1105     struct ofpbuf packet;
1106
1107     ofpbuf_init(&packet, DP_NETDEV_HEADROOM + VLAN_ETH_HEADER_LEN + max_mtu);
1108
1109     LIST_FOR_EACH (port, node, &dp->port_list) {
1110         int error;
1111
1112         /* Reset packet contents. */
1113         ofpbuf_clear(&packet);
1114         ofpbuf_reserve(&packet, DP_NETDEV_HEADROOM);
1115
1116         error = netdev_recv(port->netdev, &packet);
1117         if (!error) {
1118             dp_netdev_port_input(dp, port, &packet);
1119         } else if (error != EAGAIN && error != EOPNOTSUPP) {
1120             static struct vlog_rate_limit rl = VLOG_RATE_LIMIT_INIT(1, 5);
1121             VLOG_ERR_RL(&rl, "error receiving data from %s: %s",
1122                         netdev_get_name(port->netdev), strerror(error));
1123         }
1124     }
1125     ofpbuf_uninit(&packet);
1126 }
1127
1128 static void
1129 dpif_netdev_wait(struct dpif *dpif)
1130 {
1131     struct dp_netdev *dp = get_dp_netdev(dpif);
1132     struct dp_netdev_port *port;
1133
1134     LIST_FOR_EACH (port, node, &dp->port_list) {
1135         netdev_recv_wait(port->netdev);
1136     }
1137 }
1138
1139 static void
1140 dp_netdev_strip_vlan(struct ofpbuf *packet)
1141 {
1142     struct vlan_eth_header *veh = packet->l2;
1143     if (packet->size >= sizeof *veh
1144         && veh->veth_type == htons(ETH_TYPE_VLAN)) {
1145         struct eth_header tmp;
1146
1147         memcpy(tmp.eth_dst, veh->veth_dst, ETH_ADDR_LEN);
1148         memcpy(tmp.eth_src, veh->veth_src, ETH_ADDR_LEN);
1149         tmp.eth_type = veh->veth_next_type;
1150
1151         ofpbuf_pull(packet, VLAN_HEADER_LEN);
1152         packet->l2 = (char*)packet->l2 + VLAN_HEADER_LEN;
1153         memcpy(packet->data, &tmp, sizeof tmp);
1154     }
1155 }
1156
1157 static void
1158 dp_netdev_set_dl_src(struct ofpbuf *packet, const uint8_t dl_addr[ETH_ADDR_LEN])
1159 {
1160     struct eth_header *eh = packet->l2;
1161     memcpy(eh->eth_src, dl_addr, sizeof eh->eth_src);
1162 }
1163
1164 static void
1165 dp_netdev_set_dl_dst(struct ofpbuf *packet, const uint8_t dl_addr[ETH_ADDR_LEN])
1166 {
1167     struct eth_header *eh = packet->l2;
1168     memcpy(eh->eth_dst, dl_addr, sizeof eh->eth_dst);
1169 }
1170
1171 static bool
1172 is_ip(const struct ofpbuf *packet, const struct flow *key)
1173 {
1174     return key->dl_type == htons(ETH_TYPE_IP) && packet->l4;
1175 }
1176
1177 static void
1178 dp_netdev_set_nw_addr(struct ofpbuf *packet, const struct flow *key,
1179                       const struct nlattr *a)
1180 {
1181     if (is_ip(packet, key)) {
1182         struct ip_header *nh = packet->l3;
1183         ovs_be32 ip = nl_attr_get_be32(a);
1184         uint16_t type = nl_attr_type(a);
1185         ovs_be32 *field;
1186
1187         field = type == ODP_ACTION_ATTR_SET_NW_SRC ? &nh->ip_src : &nh->ip_dst;
1188         if (key->nw_proto == IPPROTO_TCP && packet->l7) {
1189             struct tcp_header *th = packet->l4;
1190             th->tcp_csum = recalc_csum32(th->tcp_csum, *field, ip);
1191         } else if (key->nw_proto == IPPROTO_UDP && packet->l7) {
1192             struct udp_header *uh = packet->l4;
1193             if (uh->udp_csum) {
1194                 uh->udp_csum = recalc_csum32(uh->udp_csum, *field, ip);
1195                 if (!uh->udp_csum) {
1196                     uh->udp_csum = htons(0xffff);
1197                 }
1198             }
1199         }
1200         nh->ip_csum = recalc_csum32(nh->ip_csum, *field, ip);
1201         *field = ip;
1202     }
1203 }
1204
1205 static void
1206 dp_netdev_set_nw_tos(struct ofpbuf *packet, const struct flow *key,
1207                      uint8_t nw_tos)
1208 {
1209     if (is_ip(packet, key)) {
1210         struct ip_header *nh = packet->l3;
1211         uint8_t *field = &nh->ip_tos;
1212
1213         /* Set the DSCP bits and preserve the ECN bits. */
1214         uint8_t new = nw_tos | (nh->ip_tos & IP_ECN_MASK);
1215
1216         nh->ip_csum = recalc_csum16(nh->ip_csum, htons((uint16_t)*field),
1217                 htons((uint16_t) new));
1218         *field = new;
1219     }
1220 }
1221
1222 static void
1223 dp_netdev_set_tp_port(struct ofpbuf *packet, const struct flow *key,
1224                       const struct nlattr *a)
1225 {
1226         if (is_ip(packet, key)) {
1227         uint16_t type = nl_attr_type(a);
1228         ovs_be16 port = nl_attr_get_be16(a);
1229         ovs_be16 *field;
1230
1231         if (key->nw_proto == IPPROTO_TCP && packet->l7) {
1232             struct tcp_header *th = packet->l4;
1233             field = (type == ODP_ACTION_ATTR_SET_TP_SRC
1234                      ? &th->tcp_src : &th->tcp_dst);
1235             th->tcp_csum = recalc_csum16(th->tcp_csum, *field, port);
1236             *field = port;
1237         } else if (key->nw_proto == IPPROTO_UDP && packet->l7) {
1238             struct udp_header *uh = packet->l4;
1239             field = (type == ODP_ACTION_ATTR_SET_TP_SRC
1240                      ? &uh->udp_src : &uh->udp_dst);
1241             uh->udp_csum = recalc_csum16(uh->udp_csum, *field, port);
1242             *field = port;
1243         } else {
1244             return;
1245         }
1246     }
1247 }
1248
1249 static void
1250 dp_netdev_output_port(struct dp_netdev *dp, struct ofpbuf *packet,
1251                       uint16_t out_port)
1252 {
1253     struct dp_netdev_port *p = dp->ports[out_port];
1254     if (p) {
1255         netdev_send(p->netdev, packet);
1256     }
1257 }
1258
1259 static int
1260 dp_netdev_output_userspace(struct dp_netdev *dp, const struct ofpbuf *packet,
1261                          int queue_no, const struct flow *flow, uint64_t arg)
1262 {
1263     struct dp_netdev_queue *q = &dp->queues[queue_no];
1264     struct dpif_upcall *upcall;
1265     struct ofpbuf *buf;
1266     size_t key_len;
1267
1268     if (q->head - q->tail >= MAX_QUEUE_LEN) {
1269         dp->n_lost++;
1270         return ENOBUFS;
1271     }
1272
1273     buf = ofpbuf_new(ODPUTIL_FLOW_KEY_BYTES + 2 + packet->size);
1274     odp_flow_key_from_flow(buf, flow);
1275     key_len = buf->size;
1276     ofpbuf_pull(buf, key_len);
1277     ofpbuf_reserve(buf, 2);
1278     ofpbuf_put(buf, packet->data, packet->size);
1279
1280     upcall = xzalloc(sizeof *upcall);
1281     upcall->type = queue_no;
1282     upcall->packet = buf;
1283     upcall->key = buf->base;
1284     upcall->key_len = key_len;
1285     upcall->userdata = arg;
1286
1287     q->upcalls[q->head++ & QUEUE_MASK] = upcall;
1288
1289     return 0;
1290 }
1291
1292 static int
1293 dp_netdev_execute_actions(struct dp_netdev *dp,
1294                           struct ofpbuf *packet, struct flow *key,
1295                           const struct nlattr *actions,
1296                           size_t actions_len)
1297 {
1298     const struct nlattr *a;
1299     unsigned int left;
1300
1301     NL_ATTR_FOR_EACH_UNSAFE (a, left, actions, actions_len) {
1302         switch (nl_attr_type(a)) {
1303         case ODP_ACTION_ATTR_OUTPUT:
1304             dp_netdev_output_port(dp, packet, nl_attr_get_u32(a));
1305             break;
1306
1307         case ODP_ACTION_ATTR_USERSPACE:
1308             dp_netdev_output_userspace(dp, packet, DPIF_UC_ACTION,
1309                                      key, nl_attr_get_u64(a));
1310             break;
1311
1312         case ODP_ACTION_ATTR_SET_DL_TCI:
1313             eth_set_vlan_tci(packet, nl_attr_get_be16(a));
1314             break;
1315
1316         case ODP_ACTION_ATTR_STRIP_VLAN:
1317             dp_netdev_strip_vlan(packet);
1318             break;
1319
1320         case ODP_ACTION_ATTR_SET_DL_SRC:
1321             dp_netdev_set_dl_src(packet, nl_attr_get_unspec(a, ETH_ADDR_LEN));
1322             break;
1323
1324         case ODP_ACTION_ATTR_SET_DL_DST:
1325             dp_netdev_set_dl_dst(packet, nl_attr_get_unspec(a, ETH_ADDR_LEN));
1326             break;
1327
1328         case ODP_ACTION_ATTR_SET_NW_SRC:
1329         case ODP_ACTION_ATTR_SET_NW_DST:
1330             dp_netdev_set_nw_addr(packet, key, a);
1331             break;
1332
1333         case ODP_ACTION_ATTR_SET_NW_TOS:
1334             dp_netdev_set_nw_tos(packet, key, nl_attr_get_u8(a));
1335             break;
1336
1337         case ODP_ACTION_ATTR_SET_TP_SRC:
1338         case ODP_ACTION_ATTR_SET_TP_DST:
1339             dp_netdev_set_tp_port(packet, key, a);
1340             break;
1341         }
1342     }
1343     return 0;
1344 }
1345
1346 const struct dpif_class dpif_netdev_class = {
1347     "netdev",
1348     NULL,                       /* enumerate */
1349     dpif_netdev_open,
1350     dpif_netdev_close,
1351     dpif_netdev_destroy,
1352     dpif_netdev_run,
1353     dpif_netdev_wait,
1354     dpif_netdev_get_stats,
1355     dpif_netdev_get_drop_frags,
1356     dpif_netdev_set_drop_frags,
1357     dpif_netdev_port_add,
1358     dpif_netdev_port_del,
1359     dpif_netdev_port_query_by_number,
1360     dpif_netdev_port_query_by_name,
1361     dpif_netdev_get_max_ports,
1362     dpif_netdev_port_dump_start,
1363     dpif_netdev_port_dump_next,
1364     dpif_netdev_port_dump_done,
1365     dpif_netdev_port_poll,
1366     dpif_netdev_port_poll_wait,
1367     dpif_netdev_flow_get,
1368     dpif_netdev_flow_put,
1369     dpif_netdev_flow_del,
1370     dpif_netdev_flow_flush,
1371     dpif_netdev_flow_dump_start,
1372     dpif_netdev_flow_dump_next,
1373     dpif_netdev_flow_dump_done,
1374     dpif_netdev_execute,
1375     dpif_netdev_recv_get_mask,
1376     dpif_netdev_recv_set_mask,
1377     NULL,                       /* get_sflow_probability */
1378     NULL,                       /* set_sflow_probability */
1379     NULL,                       /* queue_to_priority */
1380     dpif_netdev_recv,
1381     dpif_netdev_recv_wait,
1382     dpif_netdev_recv_purge,
1383 };
1384
1385 void
1386 dpif_dummy_register(void)
1387 {
1388     if (!dpif_dummy_class.type) {
1389         dpif_dummy_class = dpif_netdev_class;
1390         dpif_dummy_class.type = "dummy";
1391         dp_register_provider(&dpif_dummy_class);
1392     }
1393 }