9fc1d424b2eeaac799a51f4dda0813aeff1d86b5
[lambda.git] / week11.mdwn
1 [[!toc]]
2
3 ##List Zippers##
4
5 Say you've got some moderately-complex function for searching through a list, for example:
6
7         let find_nth (test : 'a -> bool) (n : int) (lst : 'a list) : (int * 'a) ->
8                 let rec helper (position : int) n lst =
9                         match lst with
10                         | [] -> failwith "not found"
11                         | x :: xs when test x -> (if n = 1
12                                 then (position, x)
13                                 else helper (position + 1) (n - 1) xs
14                         )
15                         | x :: xs -> helper (position + 1) n xs
16                 in helper 0 n lst;;
17
18 This searches for the `n`th element of a list that satisfies the predicate `test`, and returns a pair containing the position of that element, and the element itself. Good. But now what if you wanted to retrieve a different kind of information, such as the `n`th element matching `test`, together with its preceding and succeeding elements? In a real situation, you'd want to develop some good strategy for reporting when the target element doesn't have a predecessor and successor; but we'll just simplify here and report them as having some default value:
19
20         let find_nth' (test : 'a -> bool) (n : int) (lst : 'a list) (default : 'a) : ('a * 'a * 'a) ->
21                 let rec helper (predecessor : 'a) n lst =
22                         match lst with
23                         | [] -> failwith "not found"
24                         | x :: xs when test x -> (if n = 1
25                                 then (predecessor, x, match xs with [] -> default | y::ys -> y)
26                                 else helper x (n - 1) xs
27                         )
28                         | x :: xs -> helper x n xs
29                 in helper default n lst;;
30
31 This duplicates a lot of the structure of `find_nth`; it just has enough different code to retrieve different information when the matching element is found. But now what if you wanted to retrieve yet a different kind of information...?
32
33 Ideally, there should be some way to factor out the code to find the target element---the `n`th element of the list satisfying the predicate `test`---from the code that retrieves the information you want once the target is found. We might build upon the initial `find_nth` function, since that returns the *position* of the matching element. We could hand that result off to some other function that's designed to retrieve information of a specific sort surrounding that position. But suppose our list has millions of elements, and the target element is at position 600512. The search function will already have traversed 600512 elements of the list looking for the target, then the retrieval function would have to *start again from the beginning* and traverse those same 600512 elements again. It could go a bit faster, since it doesn't have to check each element against `test` as it traverses. It already knows how far it has to travel. But still, this should seem a bit wasteful.
34
35 Here's an idea. What if we had some way of representing a list as "broken" at a specific point. For example, if our base list is:
36
37         [10; 20; 30; 40; 50; 60; 70; 80; 90]
38
39 we might imagine the list "broken" at position 3 like this (positions are numbered starting from 0):
40
41                     40;
42                 30;     50;
43             20;             60;
44         [10;                    70;
45                                     80;
46                                         90]
47
48 Then if we move one step forward in the list, it would be "broken" at position 4:
49
50                         50;
51                     40;     60;
52                 30;             70;
53             20;                     80;
54         [10;                            90]
55
56 If we had some convenient representation of these "broken" lists, then our search function could hand *that* off to the retrieval function, and the retrieval function could start right at the position where the list was broken, without having to start at the beginning and traverse many elements to get there. The retrieval function would also be able to inspect elements both forwards and backwards from the position where the list was "broken".
57
58 The kind of data structure we're looking for here is called a **list zipper**. To represent our first broken list, we'd use two lists: (1) containing the elements in the left branch, preceding the target element, *in the order reverse to their appearance in the base list*. (2) containing the target element and the rest of the list, in normal order. So:
59
60                     40;
61                 30;     50;
62             20;             60;
63         [10;                    70;
64                                     80;
65                                         90]
66
67 would be represented as `([30; 20; 10], [40; 50; 60; 70; 80; 90])`. To move forward in the base list, we pop the head element `40` off of the head element of the second list in the zipper, and push it onto the first list, getting `([40; 30; 20; 10], [50; 60; 70; 80; 90])`. To move backwards again, we pop off of the first list, and push it onto the second. To reconstruct the base list, we just "move backwards" until the first list is empty. (This is supposed to evoke the image of zipping up a zipper; hence the data structure's name.)
68
69 We had some discussio in seminar of the right way to understand the "zipper" metaphor. I think it's best to think of the tab of the zipper being here:
70
71                  t
72                   a
73                    b
74                     40;
75                 30;     50;
76             20;             60;
77         [10;                    70;
78                                     80;
79                                         90]
80
81 And imagine that you're just seeing the left half of a real-zipper, rotated 60 degrees counter-clockwise. When the list is all "zipped up", we've "move backwards" to the state where the first element is targetted:
82
83         ([], [10; 20; 30; 40; 50; 60; 70; 80; 90])
84
85 However you understand the "zipper" metaphor, this is a very handy datastructure, and it will become even more handy when we translate it over to more complicated base structures, like trees. To help get a good conceptual grip on how to do that, it's useful to introduce a kind of symbolism for talking about zippers. This is just a metalanguage notation, for us theorists; we don't need our programs to interpret the notation. We'll use a specification like this:
86
87         [10; 20; 30; *; 50; 60; 70; 80; 90], * filled by 40
88
89 to represent a list zipper where the break is at position 3, and the element occupying that position is 40. For a list zipper, this is implemented using the pairs-of-lists structure described above.
90
91
92 ##Tree Zippers##
93
94 Now how could we translate a zipper-like structure over to trees? What we're aiming for is a way to keep track of where we are in a tree, in the same way that the "broken" lists let us keep track of where we are in the base list.
95
96 It's important to set some ground rules for what will follow. If you don't understand these ground rules you will get confused. First off, for many uses of trees one wants some of the nodes or leafs in the tree to be *labeled* with additional information. It's important not to conflate the label with the node itself. Numerically one and the same piece of information---for example, the same `int`---could label two nodes of the tree without those nodes thereby being identical, as here:
97
98                 root
99                 / \
100               /     \
101             /  \    label 1
102           /      \
103         label 1  label 2
104
105 The leftmost leaf and the rightmost leaf have the same label; but they are different leafs. The leftmost leaf has a sibling leaf with the label 2; the rightmost leaf has no siblings that are leafs. Sometimes when one is diagramming trees, one will annotate the nodes with the labels, as above. Other times, when one is diagramming trees, one will instead want to annotate the nodes with tags to make it easier to refer to particular parts of the tree. So for instance, I could diagram the same tree as above as:
106
107                  1
108                 / \
109               2     \
110             /  \     5
111           /      \
112          3        4
113
114 Here I haven't drawn what the labels are. The leftmost leaf, the node tagged "3" in this diagram, doesn't have the label `3`. It has the label 1, as we said before. I just haven't put that into the diagram. The node tagged "2" doesn't have the label `2`. It doesn't have any label. The tree in this example only has information labeling its leafs, not any of its inner nodes. The identity of its inner nodes is exhausted by their position in the tree.
115
116 That is a second thing to note. In what follows, we'll only be working with *leaf-labeled* trees. In some uses of trees, one also wants labels on inner nodes. But we won't be discussing any such trees now. Our trees only have labels on their leafs. The diagrams below will tag all of the nodes, as in the second diagram above, and won't display what the leafs' labels are.
117
118 Final introductory comment: in particular applications, you may only need to work with binary trees---trees where internal nodes always have exactly two subtrees. That is what we'll work with in the homework, for example. But to get the guiding idea of how tree zippers work, it's helpful first to think about trees that permit nodes to have many subtrees. So that's how we'll start.
119
120 Suppose we have the following tree:
121
122                                  9200
123                             /      |  \
124                          /         |    \
125                       /            |      \
126                    /               |        \
127                 /                  |          \
128                500                920          950
129             /   |    \          /  |  \      /  |  \
130          20     50     80      91  92  93   94  95  96
131         1 2 3  4 5 6  7 8 9
132
133 This is a leaf-labeled tree whose labels aren't displayed. The `9200` and so on are tags to make it easier for us to refer to particular parts of the tree.
134
135 Suppose we want to represent that we're *at* the node marked `50`. We might use the following metalanguage notation to specify this:
136
137         {parent = ...; siblings = [subtree 20; *; subtree 80]}, * filled by subtree 50
138
139 This is modeled on the notation suggested above for list zippers. Here `subtree 20` refers to the whole subtree rooted at node `20`:
140
141           20
142          / | \
143         1  2  3
144
145 Similarly for `subtree 50` and `subtree 80`. We haven't said yet what goes in the `parent = ...` slot. Well, the parent of a subtree targetted on `node 50` should intuitively be a tree targetted on `node 500`:
146
147         {parent = ...; siblings = [*; subtree 920; subtree 950]}, * filled by subtree 500
148
149 And the parent of that targetted subtree should intuitively be a tree targetted on `node 9200`:
150
151         {parent = None; siblings = [*]}, * filled by tree 9200
152
153 This tree has no parents because it's the root of the base tree. Fully spelled out, then, our tree targetted on `node 50` would be:
154
155         {
156            parent = {
157               parent = {
158                  parent = None;
159                  siblings = [*]
160               }, * filled by tree 9200;
161               siblings = [*; subtree 920; subtree 950]
162            }, * filled by subtree 500;
163            siblings = [subtree 20; *; subtree 80]
164         }, * filled by subtree 50
165
166 In fact, there's some redundancy in this structure, at the points where we have `* filled by tree 9200` and `* filled by subtree 500`. Since node 9200 doesn't have any label attached to it, the subtree rooted in it is determined by the rest of this structure; and so too with `subtree 500`. So we could really work with:
167
168         {
169            parent = {
170               parent = {
171                  parent = None;
172                  siblings = [*]
173               },
174               siblings = [*; subtree 920; subtree 950]
175            },
176            siblings = [subtree 20; *; subtree 80]
177         }, * filled by subtree 50
178
179
180 We still do need to keep track of what fills the outermost targetted position---`* filled by subtree 50`---because that contain a subtree of arbitrary complexity, that is not determined by the rest of this data structure.
181
182 For simplicity, I'll continue to use the abbreviated form:
183
184         {parent = ...; siblings = [subtree 20; *; subtree 80]}, * filled by subtree 50
185
186 But that should be understood as standing for the more fully-spelled-out structure. Structures of this sort are called **tree zippers**. They should already seem intuitively similar to list zippers, at least in what we're using them to represent. I think it may also be helpful to call them **targetted trees**, though, and so will be switching back and forth between these different terms.
187
188 Moving left in our targetted tree that's targetted on `node 50` would be a matter of shifting the `*` leftwards:
189
190         {parent = ...; siblings = [*; subtree 50; subtree 80]}, * filled by subtree 20
191
192 and similarly for moving right. If the sibling list is implemented as a list zipper, you should already know how to do that. If one were designing a tree zipper for a more restricted kind of tree, however, such as a binary tree, one would probably not represent siblings with a list zipper, but with something more special-purpose and economical.
193
194 Moving downward in the tree would be a matter of constructing a tree targetted on some child of `node 20`, with the first part of the targetted tree above as its parent:
195
196         {
197            parent = {parent = ...; siblings = [*; subtree 50; subtree 80]};
198            siblings = [*; leaf 2; leaf 3]
199         }, * filled by leaf 1
200
201 How would we move upward in a tree? Well, we'd build a regular, untargetted tree with a root node---let's call it `20'`---and whose children are given by the outermost sibling list in the targetted tree above, after inserting the targetted subtree into the `*` position:
202
203                node 20'
204             /     |    \
205          /        |      \
206         leaf 1  leaf 2  leaf 3
207
208 We'll call this new untargetted tree `subtree 20'`. The result of moving upward from our previous targetted tree, targetted on `leaf 1`, would be the outermost `parent` element of that targetted tree, with `subtree 20'` being the subtree that fills that parent's target position `*`:
209
210         {
211            parent = ...;
212            siblings = [*; subtree 50; subtree 80]
213         }, * filled by subtree 20'
214
215 Or, spelling that structure out fully:
216
217         {
218            parent = {
219               parent = {
220                  parent = None;
221                  siblings = [*]
222               },
223               siblings = [*; subtree 920; subtree 950]
224            },
225            siblings = [*; subtree 50; subtree 80]
226         }, * filled by subtree 20'
227
228 Moving upwards yet again would get us:
229
230         {
231            parent = {
232               parent = None;
233               siblings = [*]
234            },
235            siblings = [*; subtree 920; subtree 950]
236         }, * filled by subtree 500'
237
238 where `subtree 500'` refers to a tree built from a root node whose children are given by the list `[*; subtree 50; subtree 80]`, with `subtree 20'` inserted into the `*` position. Moving upwards yet again would get us:
239
240         {
241            parent = None;
242            siblings = [*]
243         }, * filled by tree 9200'
244
245 where the targetted element is the root of our base tree. Like the "moving backward" operation for the list zipper, this "moving upward" operation is supposed to be reminiscent of closing a zipper, and that's why these data structures are called zippers.
246
247 We haven't given you a real implementation of the tree zipper, but only a suggestive notation. We have however told you enough that you should be able to implement it yourself. Or if you're lazy, you can read:
248
249 *       [[!wikipedia Zipper (data structure)]]
250 *       Huet, Gerard. ["Functional Pearl: The Zipper"](http://www.st.cs.uni-sb.de/edu/seminare/2005/advanced-fp/docs/huet-zipper.pdf) Journal of Functional Programming 7 (5): 549-554, September 1997.
251 *       As always, [Oleg](http://okmij.org/ftp/continuations/Continuations.html#zipper) takes this a few steps deeper.
252
253
254 ##Same-fringe using a zipper-based coroutine##
255
256 Recall back in [[Assignment4]], we asked you to enumerate the "fringe" of a leaf-labeled tree. Both of these trees (here I *am* drawing the labels in the diagram):
257
258             .                .
259            / \              / \
260           .   3            1   .
261          / \                  / \
262         1   2                2   3
263
264 have the same fringe: `[1;2;3]`. We also asked you to write a function that determined when two trees have the same fringe. The way you approached that back then was to enumerate each tree's fringe, and then compare the two lists for equality. Today, and then again in a later class, we'll encounter new ways to approach the problem of determining when two trees have the same fringe.
265
266
267 Supposing you did work out an implementation of the tree zipper, then one way to determine whether two trees have the same fringe would be: go downwards (and leftwards) in each tree as far as possible. Compare the targetted leaves. If they're different, stop because the trees have different fringes. If they're the same, then for each tree, move rightward if possible; if it's not (because you're at the rightmost position in a sibling list), more upwards then try again to move rightwards. Repeat until you are able to move rightwards. Once you do move rightwards, go downwards (and leftwards) as far as possible. Then you'll be targetted on the next leaf in the tree's fringe. The operations it takes to get to "the next leaf" may be different for the two trees. For example, in these trees:
268
269             .                .
270            / \              / \
271           .   3            1   .
272          / \                  / \
273         1   2                2   3
274
275 you won't move upwards at the same steps. Keep comparing "the next leafs" until they are different, or you exhaust the leafs of only one of the trees (then again the trees have different fringes), or you exhaust the leafs of both trees at the same time, without having found leafs with different labels. In this last case, the trees have the same fringe.
276
277 If your trees are very big---say, millions of leaves---you can imagine how this would be quicker and more memory-efficient than traversing each tree to construct a list of its fringe, and then comparing the two lists so built to see if they're equal. For one thing, the zipper method can abort early if the fringes diverge early, without needing to traverse or build a list containing the rest of each tree's fringe.
278
279 Let's sketch the implementation of this. We won't provide all the details for an implementation of the tree zipper, but we will sketch an interface for it.
280
281 First, we define a type for leaf-labeled, binary trees:
282
283         type 'a tree = Leaf of 'a | Node of ('a tree * 'a tree)
284
285 Next, the interface for our tree zippers. We'll help ourselves to OCaml's **record types**. These are nothing more than tuples with a pretty interface. Instead of saying:
286
287         # type blah = Blah of (int * int * (char -> bool));;
288
289 and then having to remember which element in the triple was which:
290
291         # let b1 = Blah (1, (fun c -> c = 'M'), 2);;
292         Error: This expression has type int * (char -> bool) * int
293        but an expression was expected of type int * int * (char -> bool)
294         # (* damnit *)
295         # let b1 = Blah (1, 2, (fun c -> c = 'M'));;
296         val b1 : blah = Blah (1, 2, <fun>)
297
298 records let you attach descriptive labels to the components of the tuple:
299
300         # type blah_record = { height : int; weight : int; char_tester : char -> bool };;
301         # let b2 = { height = 1; weight = 2; char_tester = fun c -> c = 'M' };;
302         val b2 : blah_record = {height = 1; weight = 2; char_tester = <fun>}
303         # let b3 = { height = 1; char_tester = (fun c -> c = 'K'); weight = 3 };; (* also works *)
304         val b3 : blah_record = {height = 1; weight = 3; char_tester = <fun>}
305
306 These were the strategies to extract the components of an unlabeled tuple:
307
308         let h = fst some_pair;; (* accessor functions fst and snd are only predefined for pairs *)
309
310         let (h, w, test) = b1;; (* works for arbitrary tuples *)
311
312         match b1 with
313         | (h, w, test) -> ...;; (* same as preceding *)
314
315 Here is how you can extract the components of a labeled record:
316
317         let h = b2.height;; (* handy! *)
318
319         let {height = h; weight = w; char_tester = test} = b2
320         in (* go on to use h, w, and test ... *)
321
322         match test with
323         | {height = h; weight = w; char_tester = test} ->
324                 (* go on to use h, w, and test ... *)
325
326 Anyway, using record types, we might define the tree zipper interface like so:
327
328         type 'a starred_level = Root | Starring_Left of 'a starred_nonroot | Starring_Right of 'a starred_nonroot
329         and 'a starred_nonroot = { parent : 'a starred_level; sibling: 'a tree };;
330
331         type 'a zipper = { level : 'a starred_level; filler: 'a tree };;
332
333         let rec move_botleft (z : 'a zipper) : 'a zipper =
334             (* returns z if the targetted node in z has no children *)
335             (* else returns move_botleft (zipper which results from moving down and left in z) *)
336
337 <!--
338             let {level; filler} = z
339             in match filler with
340             | Leaf _ -> z
341             | Node(left, right) ->
342                 let zdown = {level = Starring_Left {parent = level; sibling = right}; filler = left}
343                 in move_botleft zdown
344             ;;
345 -->
346
347         let rec move_right_or_up (z : 'a zipper) : 'a zipper option =
348             (* if it's possible to move right in z, returns Some (the result of doing so) *)
349             (* else if it's not possible to move any further up in z, returns None *)
350             (* else returns move_right_or_up (result of moving up in z) *)
351
352 <!--
353             let {level; filler} = z
354             in match level with
355             | Starring_Left {parent; sibling = right} -> Some {level = Starring_Right {parent; sibling = filler}; filler = right}
356             | Root -> None
357             | Starring_Right {parent; sibling = left} ->
358                 let z' = {level = parent; filler = Node(left, filler)}
359                 in move_right_or_up z'
360             ;;
361 -->
362
363 The following function takes an 'a tree and returns an 'a zipper focused on its root:
364
365         let new_zipper (t : 'a tree) : 'a zipper =
366             {level = Root; filler = t}
367             ;;
368
369 Finally, we can use a mutable reference cell to define a function that enumerates a tree's fringe until it's exhausted:
370
371         let make_fringe_enumerator (t: 'a tree) =
372             (* create a zipper targetting the botleft of t *)
373             let zbotleft = move_botleft (new_zipper t)
374             (* create a refcell initially pointing to zbotleft *)
375             in let zcell = ref (Some zbotleft)
376             (* construct the next_leaf function *)
377             in let next_leaf () : 'a option =
378                 match !zcell with
379                 | Some z -> (
380                     (* extract label of currently-targetted leaf *)
381                     let Leaf current = z.filler
382                     (* update zcell to point to next leaf, if there is one *)
383                     in let () = zcell := match move_right_or_up z with
384                         | None -> None
385                         | Some z' -> Some (move_botleft z')
386                     (* return saved label *)
387                     in Some current
388                 | None -> (* we've finished enumerating the fringe *)
389                     None
390                 )
391             (* return the next_leaf function *)
392             in next_leaf
393             ;;
394
395 Here's an example of `make_fringe_enumerator` in action:
396
397         # let tree1 = Leaf 1;;
398         val tree1 : int tree = Leaf 1
399         # let next1 = make_fringe_enumerator tree1;;
400         val next1 : unit -> int option = <fun>
401         # next1 ();;
402         - : int option = Some 1
403         # next1 ();;
404         - : int option = None
405         # next1 ();;
406         - : int option = None
407         # let tree2 = Node (Node (Leaf 1, Leaf 2), Leaf 3);;
408         val tree2 : int tree = Node (Node (Leaf 1, Leaf 2), Leaf 3)
409         # let next2 = make_fringe_enumerator tree2;;
410         val next2 : unit -> int option = <fun>
411         # next2 ();;
412         - : int option = Some 1
413         # next2 ();;
414         - : int option = Some 2
415         # next2 ();;
416         - : int option = Some 3
417         # next2 ();;
418         - : int option = None
419         # next2 ();;
420         - : int option = None
421
422 You might think of it like this: `make_fringe_enumerator` returns a little subprogram that will keep returning the next leaf in a tree's fringe, in the form `Some ...`, until it gets to the end of the fringe. After that, it will keep returning `None`.
423
424 Using these fringe enumerators, we can write our `same_fringe` function like this:
425
426         let same_fringe (t1 : 'a tree) (t2 : 'a tree) : bool =
427                 let next1 = make_fringe_enumerator t1
428                 in let next2 = make_fringe_enumerator t2
429                 in let rec loop () : bool =
430                         match next1 (), next2 () with
431                         | Some a, Some b when a = b -> loop ()
432                         | None, None -> true
433                         | _ -> false
434                 in loop ()
435                 ;;
436
437 The auxiliary `loop` function will keep calling itself recursively until a difference in the fringes has manifested itself---either because one fringe is exhausted before the other, or because the next leaves in the two fringes have different labels. If we get to the end of both fringes at the same time (`next1 (), next2 ()` matches the pattern `None, None`) then we've established that the trees do have the same fringe.
438
439 The technique illustrated here with our fringe enumerators is a powerful and important one. It's an example of what's sometimes called **cooperative threading**. A "thread" is a subprogram that the main computation spawns off. Threads are called "cooperative" when the code of the main computation and the thread fixes when control passes back and forth between them. (When the code doesn't control this---for example, it's determined by the operating system or the hardware in ways that the programmer can't predict---that's called "preemptive threading.") Cooperative threads are also sometimes called *coroutines* or *generators*.
440
441 With cooperative threads, one typically yields control to the thread, and then back again to the main program, multiple times. Here's the pattern in which that happens in our `same_fringe` function:
442
443         main program            next1 thread            next2 thread
444         ------------            ------------            ------------
445         start next1
446         (paused)                        starting
447         (paused)                        calculate first leaf
448         (paused)                        <--- return it
449         start next2                     (paused)                        starting
450         (paused)                        (paused)                        calculate first leaf
451         (paused)                        (paused)                        <-- return it
452         compare leaves          (paused)                        (paused)
453         call loop again         (paused)                        (paused)
454         call next1 again        (paused)                        (paused)
455         (paused)                        calculate next leaf     (paused)
456         (paused)                        <-- return it           (paused)
457         ... and so on ...
458
459 If you want to read more about these kinds of threads, here are some links:
460
461 <!-- *  [[!wikipedia Computer_multitasking]]
462 *       [[!wikipedia Thread_(computer_science)]] -->
463
464 *       [[!wikipedia Coroutine]]
465 *       [[!wikipedia Iterator]]
466 *       [[!wikipedia Generator_(computer_science)]]
467 *       [[!wikipedia Fiber_(computer_science)]]
468 <!-- *  [[!wikipedia Green_threads]]
469 *       [[!wikipedia Protothreads]] -->
470
471 The way we built cooperative threads here crucially relied on two heavyweight tools. First, it relied on our having a data structure (the tree zipper) capable of being a static snapshot of where we left off in the tree whose fringe we're enumerating. Second, it relied on our using mutable reference cells so that we could update what the current snapshot (that is, tree zipper) was, so that the next invocation of the `next_leaf` function could start up again where the previous invocation left off.
472
473 It's possible to build cooperative threads without using those tools, however. Some languages have a native syntax for them. Here's how we'd write the same-fringe solution above using native coroutines in the language Lua:
474
475         > function fringe_enumerator (tree)
476             if tree.leaf then
477                 coroutine.yield (tree.leaf)
478             else
479                 fringe_enumerator (tree.left)
480                 fringe_enumerator (tree.right)
481             end
482         end
483         
484         > function same_fringe (tree1, tree2)
485             local next1 = coroutine.wrap (fringe_enumerator)
486             local next2 = coroutine.wrap (fringe_enumerator)
487             local function loop (leaf1, leaf2)
488                 if leaf1 or leaf2 then
489                     return leaf1 == leaf2 and loop( next1(), next2() )
490                 elseif not leaf1 and not leaf2 then
491                     return true
492                 else
493                     return false
494                 end
495             end
496             return loop (next1(tree1), next2(tree2))
497         end
498         
499         > return same_fringe ( {leaf=1}, {leaf=2})
500         false
501         
502         > return same_fringe ( {leaf=1}, {leaf=1})
503         true
504         
505         > return same_fringe ( {left = {leaf=1}, right = {left = {leaf=2}, right = {leaf=3}}},
506             {left = {left = {leaf=1}, right = {leaf=2}}, right = {leaf=3}} )
507         true
508
509 We're going to think about the underlying principles to this execution pattern, and instead learn how to implement it from scratch---without necessarily having zippers to rely on.
510
511
512 ##Exceptions and Aborts##
513
514 To get a better understanding of how that execution patter works, we'll add yet a second execution pattern to our plate, and then think about what they have in common.
515
516 While writing OCaml code, you've probably come across errors. In fact, you've probably come across errors of two sorts. One sort of error comes about when you've got syntax errors or type errors and the OCaml interpreter isn't even able to understand your code:
517
518         # let lst = [1; 2] in
519           "a" :: lst;;
520         Error: This expression has type int list
521                    but an expression was expected of type string list
522
523 But you may also have encountered other kinds of error, that arise while your program is running. For example:
524
525         # 1/0;;
526         Exception: Division_by_zero.
527         # List.nth [1;2] 10;;
528         Exception: Failure "nth".
529
530 These "Exceptions" are **run-time errors**. OCaml will automatically detect some of them, like when you attempt to divide by zero. Other exceptions are *raised* by code. For instance, here is the implementation of `List.nth`:
531
532         let nth l n =
533           if n < 0 then invalid_arg "List.nth" else
534           let rec nth_aux l n =
535                 match l with
536                 | [] -> failwith "nth"
537                 | a::l -> if n = 0 then a else nth_aux l (n-1)
538           in nth_aux l n
539
540 Notice the two clauses `invalid_arg "List.nth"` and `failwith "nth"`. These are two helper functions which are shorthand for:
541
542         raise (Invalid_argument "List.nth");;
543         raise (Failure "nth");;
544
545 where `Invalid_argument "List.nth"` is a value of type `exn`, and so too `Failure "nth"`. When you have some value `ex` of type `exn` and evaluate the expression:
546
547         raise ex
548
549 the effect is for the program to immediately stop without evaluating any further code:
550
551         # let xcell = ref 0;;
552         val xcell : int ref = {contents = 0}
553         # let ex = Failure "test"
554           in let _ = raise ex
555           in xcell := 1;;
556         Exception: Failure "test".
557         # !xcell;;
558         - : int = 0
559
560 Notice that the line `xcell := 1` was never evaluated, so the contents of `xcell` are still `0`.
561
562 I said when you evaluate the expression:
563
564         raise ex
565
566 the effect is for the program to immediately stop. That's not exactly true. You can also programmatically arrange to *catch* errors, without the program necessarily stopping. In OCaml we do that with a `try ... with PATTERN -> ...` construct, analogous to the `match ... with PATTERN -> ...` construct:
567
568         # let foo x =
569             try
570                 if x = 1 then 10
571                 else if x = 2 then raise (Failure "two")
572                 else raise (Failure "three")
573             with Failure "two" -> 20
574             ;;
575         val foo : int -> int = <fun>
576         # foo 1;;
577         - : int = 10
578         # foo 2;;
579         - : int = 20
580         # foo 3;;
581         Exception: Failure "three".
582
583 Notice what happens here. If we call `foo 1`, then the code between `try` and `with` evaluates to `10`, with no exceptions being raised. That then is what the entire `try ... with ...` block evaluates to; and so too what `foo 1` evaluates to. If we call `foo 2`, then the code between `try` and `with` raises an exception `Failure "two"`. The pattern in the `with` clause matches that exception, so we get instead `20`. If we call `foo 3`, we again raise an exception. This exception isn't matched by the `with` block, so it percolates up to the top of the program, and then the program immediately stops.
584
585 So what I should have said is that when you evaluate the expression:
586
587         raise ex
588
589 *and that exception is never caught*, then the effect is for the program to immediately stop.
590
591 Of course, it's possible to handle errors in other ways too. There's no reason why the implementation of `List.nth` *had* to do things this way. They might instead have returned `Some a` when the list had an nth member `a`, and `None` when it does not. But it's pedagogically useful for us to think about this pattern now.
592
593 When an exception is raised, it percolates up through the code that called it, until it finds a surrounding `try ... with ...` that matches it. That might not be the first `try ... with ...` that it encounters. For example:
594
595         # try
596             try
597                 raise (Failure "blah")
598             with Failure "fooey" -> 10
599           with Failure "blah" -> 20;;
600         - : int = 20
601
602 The matching `try ... with ...` block need not *lexically surround* the site where the error was raised:
603
604         # let foo b x =
605             try
606                 b x
607             with Failure "blah" -> 20
608         in let bar x =
609             raise (Failure "blah")
610         in foo bar 0;;
611         - : int = 20
612
613 Here we call `foo bar 0`, and `foo` in turn calls `bar 0`, and `bar` raises the exception. Since there's no matching `try ... with ...` block in `bar`, we percolate back up the history of *who called this function?* and find a matching `try ... with ...` block in `foo`. This catches the error and so then the `try ... with ...` block in `foo` that called `bar` in the first place will evaluate to `20`.
614
615 OK, now this exception-handling apparatus does exemplify the second execution pattern we want to focus on. But it may bring it into clearer focus if we simplify the pattern even more. Imagine we could write code like this instead:
616
617         # let foo x =
618             try
619                 (if x = 1 then 10
620                 else abort 20) + 1
621             end
622             ;;
623
624 then if we called `foo 1`, we'd get the result `11`. If we called `foo 2`, on the other hand, we'd get `20` (note, not `21`). This exemplifies the same interesting "jump out of this part of the code" behavior that the `try ... raise ... with ...` code does, but without the details of matching which exception was raised, and handling the exception to produce a new result.
625
626 Many programming languages have this simplified exceution pattern, either instead of or alongside a `try ... with ...`-like pattern. In Lua and many other languages, `abort` is instead called `return`. The preceding example would be written:
627
628         > function foo(x)
629             local value
630             if (x == 1) then
631                 value = 10
632             else
633                 return 20
634             end
635             return value + 1
636         end
637         
638         > return foo(1)
639         11
640         
641         > return foo(2)
642         20
643
644 Okay, so that's our second execution pattern.
645
646 ##What do these have in common?##
647
648
649
650
651
652
653
654 --------------------------------------
655
656 In coming weeks, we'll learn about a different way to create threads, that relies on **continuations** rather than on those two tools. All of these tools are inter-related. As Oleg says, "Zipper can be viewed as a delimited continuation reified as a data structure." These different tools are also inter-related with monads. Many of these tools can be used to define the others. We'll explore some of the connections between them in the remaining weeks, but we encourage you to explore more.
657
658
659 ##Introducing Continuations##
660
661 A continuation is "the rest of the program." Or better: an **delimited continuation** is "the rest of the program, up to a certain boundary." An **undelimited continuation** is "the rest of the program, period."
662
663 Even if you haven't read specifically about this notion (for example, even if you haven't read Chris and Ken's work on using continuations in natural language semantics), you'll have brushed shoulders with it already several times in this course.
664
665 A naive semantics for atomic sentences will say the subject term is of type `e`, and the predicate of type `e -> t`, and that the subject provides an argument to the function expressed by the predicate.
666
667 Monatague proposed we instead take subject terms to be of type `(e -> t) -> t`, and that now it'd be the predicate (still of type `e -> t`) that provides an argument to the function expressed by the subject.
668
669 If all the subject did then was supply an `e` to the `e -> t` it receives as an argument, we wouldn't have gained anything we weren't already able to do. But of course, there are other things the subject can do with the `e -> t` it receives as an argument. For instance, it can check whether anything in the domain satisfies that `e -> t`; or whether most things do; and so on.
670
671 This inversion of who is the argument and who is the function receiving the argument is paradigmatic of working with continuations. We did the same thing ourselves back in the early days of the seminar, for example in our implementation of pairs. In the untyped lambda calculus, we identified the pair `(x, y)` with a function:
672
673         \handler. handler x y
674
675 A pair-handling function would accept the two elements of a pair as arguments, and then do something with one or both of them. The important point here is that the handler was supplied as an argument to the pair. Eventually, the handler would itself be supplied with arguments. But only after it was supplied as an argument to the pair. This inverts the order you'd expect about what is the data or argument, and what is the function that operates on it.
676
677 Consider a complex computation, such as:
678
679         1 + 2 * (1 - g (3 + 4))
680
681 Part of this computation---`3 + 4`---leads up to supplying `g` with an argument. The rest of the computation---`1 + 2 * (1 - ___)`---waits for the result of applying `g` to that argument and will go on to do something with it (inserting the result into the `___` slot). That "rest of the computation" can be regarded as a function:
682
683         \result. 1 + 2 * (1 - result)
684
685 This function will be applied to whatever is the result of `g (3 + 4)`. So this function can be called the *continuation* of that application of `g`. For some purposes, it's useful to be able to invert the function/argument order here, and rather than supplying the result of applying `g` to the continuation, we instead supply the continuation to `g`. Well, not to `g` itself, since `g` only wants a single `int` argument. But we might build some `g`-like function which accepts not just an `int` argument like `g` does, but also a continuation argument.
686
687 Go back and read the material on "Aborting a Search Through a List" in [[Week4]] for an example of doing this.
688
689 In very general terms, the strategy is to work with functions like this:
690
691         let g' k (i : int) =
692                 ... do stuff ...
693                 ... if you want to abort early, supply an argument to k ...
694                 ... do more stuff ...
695                 ... normal result
696         in let gcon = fun result -> 1 + 2 * (1 - result)
697         in gcon (g' gcon (3 + 4))
698
699 It's a convention to use variables like `k` for continuation arguments. If the function `g'` never supplies an argument to its contination argument `k`, but instead just finishes evaluating to a normal result, that normal result will be delivered to `g'`'s continuation `gcon`, just as happens when we don't pass around any explicit continuation variables.
700
701 The above snippet of OCaml code doesn't really capture what happens when we pass explicit continuation variables. For suppose that inside `g'`, we do supply an argument to `k`. That would go into the `result` parameter in `gcon`. But then what happens once we've finished evaluating the application of `gcon` to that `result`? In the OCaml snippet above, the final value would then bubble up through the context in the body of `g'` where `k` was applied, and eventually out to the final line of the snippet, where it once again supplied an argument to `gcon`. That's not what happens with a real continuation. A real continuation works more like this:
702
703         let g' k (i : int) =
704                 ... do stuff ...
705                 ... if you want to abort early, supply an argument to k ...
706                 ... do more stuff ...
707                 ... normal result
708         in let gcon = fun result ->
709                 let final_value = 1 + 2 * (1 - result)
710                 in end_program_with final_value
711         in gcon (g' gcon (3 + 4))
712
713 So once we've finished evaluating the application of `gcon` to a `result`, the program is finished. (This is how undelimited continuations behave. We'll discuss delimited continuations later.)
714
715 So now, guess what would be the result of doing the following:
716
717         let g' k (i : int) =
718                 1 + k i
719         in let gcon = fun result ->
720                 let final_value = (1, result)
721                 in end_program_with final_value
722         in gcon (g' gcon (3 + 4))
723
724 <!-- (1, 7) ... explain why not (1, 8) -->
725
726