be59f0e1e2f99baea1dac64381ff53fb1b3a6f2b
[lambda.git] / week11.mdwn
1 [[!toc]]
2
3 ##List Zippers##
4
5 Say you've got some moderately-complex function for searching through a list, for example:
6
7         let find_nth (test : 'a -> bool) (n : int) (lst : 'a list) : (int * 'a) ->
8                 let rec helper (position : int) n lst =
9                         match lst with
10                         | [] -> failwith "not found"
11                         | x :: xs when test x -> (if n = 1
12                                 then (position, x)
13                                 else helper (position + 1) (n - 1) xs
14                         )
15                         | x :: xs -> helper (position + 1) n xs
16                 in helper 0 n lst;;
17
18 This searches for the `n`th element of a list that satisfies the predicate `test`, and returns a pair containing the position of that element, and the element itself. Good. But now what if you wanted to retrieve a different kind of information, such as the `n`th element matching `test`, together with its preceding and succeeding elements? In a real situation, you'd want to develop some good strategy for reporting when the target element doesn't have a predecessor and successor; but we'll just simplify here and report them as having some default value:
19
20         let find_nth' (test : 'a -> bool) (n : int) (lst : 'a list) (default : 'a) : ('a * 'a * 'a) ->
21                 let rec helper (predecessor : 'a) n lst =
22                         match lst with
23                         | [] -> failwith "not found"
24                         | x :: xs when test x -> (if n = 1
25                                 then (predecessor, x, match xs with [] -> default | y::ys -> y)
26                                 else helper x (n - 1) xs
27                         )
28                         | x :: xs -> helper x n xs
29                 in helper default n lst;;
30
31 This duplicates a lot of the structure of `find_nth`; it just has enough different code to retrieve different information when the matching element is found. But now what if you wanted to retrieve yet a different kind of information...?
32
33 Ideally, there should be some way to factor out the code to find the target element---the `n`th element of the list satisfying the predicate `test`---from the code that retrieves the information you want once the target is found. We might build upon the initial `find_nth` function, since that returns the *position* of the matching element. We could hand that result off to some other function that's designed to retrieve information of a specific sort surrounding that position. But suppose our list has millions of elements, and the target element is at position 600512. The search function will already have traversed 600512 elements of the list looking for the target, then the retrieval function would have to *start again from the beginning* and traverse those same 600512 elements again. It could go a bit faster, since it doesn't have to check each element against `test` as it traverses. It already knows how far it has to travel. But still, this should seem a bit wasteful.
34
35 Here's an idea. What if we had some way of representing a list as "broken" at a specific point. For example, if our base list is:
36
37         [10; 20; 30; 40; 50; 60; 70; 80; 90]
38
39 we might imagine the list "broken" at position 3 like this (positions are numbered starting from 0):
40
41                     40;
42                 30;     50;
43             20;             60;
44         [10;                    70;
45                                     80;
46                                         90]
47
48 Then if we move one step forward in the list, it would be "broken" at position 4:
49
50                         50;
51                     40;     60;
52                 30;             70;
53             20;                     80;
54         [10;                            90]
55
56 If we had some convenient representation of these "broken" lists, then our search function could hand *that* off to the retrieval function, and the retrieval function could start right at the position where the list was broken, without having to start at the beginning and traverse many elements to get there. The retrieval function would also be able to inspect elements both forwards and backwards from the position where the list was "broken".
57
58 The kind of data structure we're looking for here is called a **list zipper**. To represent our first broken list, we'd use two lists: (1) containing the elements in the left branch, preceding the target element, *in the order reverse to their appearance in the base list*. (2) containing the target element and the rest of the list, in normal order. So:
59
60                     40;
61                 30;     50;
62             20;             60;
63         [10;                    70;
64                                     80;
65                                         90]
66
67 would be represented as `([30; 20; 10], [40; 50; 60; 70; 80; 90])`. To move forward in the base list, we pop the head element `40` off of the head element of the second list in the zipper, and push it onto the first list, getting `([40; 30; 20; 10], [50; 60; 70; 80; 90])`. To move backwards again, we pop off of the first list, and push it onto the second. To reconstruct the base list, we just "move backwards" until the first list is empty. (This is supposed to evoke the image of zipping up a zipper; hence the data structure's name.)
68
69 We had some discussio in seminar of the right way to understand the "zipper" metaphor. In the case of the list zipper, I think it's best to think of the tab of the zipper being here:
70
71                  t
72                   a
73                    b
74                     40;
75                 30;     50;
76             20;             60;
77         [10;                    70;
78                                     80;
79                                         90]
80
81 And imagine that you're just seeing the left half of a real-zipper, rotated 60 degrees counter-clockwise. When the list is all "zipped up", we've "move backwards" to the state where the first element is targetted:
82
83         ([], [10; 20; 30; 40; 50; 60; 70; 80; 90])
84
85 However you understand the "zipper" metaphor, this is a very handy datastructure, and it will become even more handy when we translate it over to more complicated base structures, like trees. To help get a good conceptual grip on how to do that, it's useful to introduce a kind of symbolism for talking about zippers. This is just a metalanguage notation, for us theorists; we don't need our programs to interpret the notation. We'll use a specification like this:
86
87         [10; 20; 30; *; 50; 60; 70; 80; 90], * filled by 40
88
89 to represent a list zipper where the break is at position 3, and the element occupying that position is 40. For a list zipper, this is implemented using the pairs-of-lists structure described above.
90
91
92 ##Tree Zippers##
93
94 Now how could we translate a zipper-like structure over to trees? What we're aiming for is a way to keep track of where we are in a tree, in the same way that the "broken" lists let us keep track of where we are in the base list. In a particular application, you may only need to implement this for binary trees---trees where internal nodes always have exactly two subtrees. But to get the guiding idea, it's helpful first to think about trees that permit nodes to have many subtrees. Suppose we have the following tree:
95
96                                  1000
97                             /      |  \
98                          /         |    \
99                       /            |      \
100                    /               |        \
101                 /                  |          \
102                500                920          950
103             /   |    \          /  |  \      /  |  \
104          20     50     80      91  92  93   94  95  96
105         1 2 3  4 5 6  7 8 9
106
107 and we want to represent that we're at the node marked `50`. We might use the following metalanguage notation to specify this:
108
109         {parent = ...; siblings = [node 20; *; node 80]}, * filled by node 50
110
111 This is modeled on the notation suggested above for list zippers. Here `node 20` refers not to a `int` label associated with that node, but rather to the whole subtree rooted at that node:
112
113           20
114          / | \
115         1  2  3
116
117 Similarly for `node 50` and `node 80`. We haven't said yet what goes in the `parent = ...` slot. Well, the parent of a subtree targetted on `node 50` should intuitively be a tree targetted on `node 500`:
118
119         {parent = ...; siblings = [*; node 920; node 950]}, * filled by node 500
120
121 And the parent of that targetted subtree should intuitively be a tree targetted on `node 1000`:
122
123         {parent = None; siblings = [*]}, * filled by node 1000
124
125 This tree has no parents because it's the root of the base tree. Fully spelled out, then, our tree targetted on `node 50` would be:
126
127         {
128            parent = {
129               parent = {
130                  parent = None;
131                  siblings = [*]
132               }, * filled by node 1000;
133               siblings = [*; node 920; node 950]
134            }, * filled by node 500;
135            siblings = [node 20; *; node 80]
136         }, * filled by node 50
137
138 In fact, there's some redundancy in this structure, at the points where we have `* filled by node 1000` and `* filled by node 500`. Most of `node 1000`---with the exception of any label attached to node `1000` itself---is determined by the rest of this structure; and so too with `node 500`. So we could really work with:
139
140         {
141            parent = {
142               parent = {
143                  parent = None;
144                  siblings = [*]
145               }, label for * position (at node 1000);
146               siblings = [*; node 920; node 950]
147            }, label for * position (at node 500);
148            siblings = [node 20; *; node 80]
149         }, * filled by node 50
150
151 Or, if we only had labels on the leafs of our tree:
152
153         {
154            parent = {
155               parent = {
156                  parent = None;
157                  siblings = [*]
158               },
159               siblings = [*; node 920; node 950]
160            },
161            siblings = [node 20; *; node 80]
162         }, * filled by node 50
163
164 We're understanding the `20` here in `node 20` to just be a metalanguage marker to help us theorists keep track of which node we're referring to. We're supposing the tree structure itself doesn't associate any informative labelling information with those nodes. It only associates informative labels with the tree leafs. (We haven't represented any such labels in our diagrams.)
165
166 We still do need to keep track of what fills the outermost targetted position---`* filled by node 50`---because that contain a subtree of arbitrary complexity, that is not determined by the rest of this data structure.
167
168 For simplicity, I'll continue to use the abbreviated form:
169
170         {parent = ...; siblings = [node 20; *; node 80]}, * filled by node 50
171
172 But that should be understood as standing for the more fully-spelled-out structure. Structures of this sort are called **tree zippers**, for a reason that will emerge. They should already seem intuitively similar to list zippers, though, at least in what we're using them to represent. I think it may initially be more helpful to call these **targetted trees**, though, and so will be switching back and forth between this different terms.
173
174 Moving left in our targetted tree that's targetted on `node 50` would be a matter of shifting the `*` leftwards:
175
176         {parent = ...; siblings = [*; node 50; node 80]}, * filled by node 20
177
178 and similarly for moving right. If the sibling list is implemented as a list zipper, you should already know how to do that. If one were designing a tree zipper for a more restricted kind of tree, however, such as a binary tree, one would probably not represent siblings with a list zipper, but with something more special-purpose and economical.
179
180 Moving downward in the tree would be a matter of constructing a tree targetted on some child of `node 20`, with the first part of the targetted tree above as its parent:
181
182         {
183            parent = {parent = ...; siblings = [*; node 50; node 80]};
184            siblings = [*; leaf 2; leaf 3]
185         }, * filled by leaf 1
186
187 How would we move upward in a tree? Well, we'd build a regular, untargetted tree with a root node---let's call it `20`---and whose children are given by the outermost sibling list in the targetted tree above, after inserting the targetted subtree into the `*` position:
188
189                node 20
190             /     |    \
191          /        |      \
192         leaf 1  leaf 2  leaf 3
193
194 We'll call this new untargetted tree `node 20`. The result of moving upward from our previous targetted tree, targetted on `leaf 1`, would be the outermost `parent` element of that targetted tree, with `node 20` being the subtree that fills that parent's target position `*`:
195
196         {
197            parent = ...;
198            siblings = [*; node 50; node 80]
199         }, * filled by node 20
200
201 Or, spelling that structure out fully:
202
203         {
204            parent = {
205               parent = {
206                  parent = None;
207                  siblings = [*]
208               },
209               siblings = [*; node 920; node 950]
210            },
211            siblings = [*; node 50; node 80]
212         }, * filled by node 20
213
214 Moving upwards yet again would get us:
215
216         {
217            parent = {
218               parent = None;
219               siblings = [*]
220            },
221            siblings = [*; node 920; node 950]
222         }, * filled by node 500
223
224 where `node 500` refers to a tree built from a root node whose children are given by the list `[*; node 50; node 80]`, with `node 20` inserted into the `*` position. Moving upwards yet again would get us:
225
226         {
227            parent = None;
228            siblings = [*]
229         }, * filled by node 1000
230
231 where the targetted element is the root of our base tree. Like the "moving backward" operation for the list zipper, this "moving upward" operation is supposed to be reminiscent of closing a zipper, and that's why these data structures are called zippers.
232
233 We haven't given you a real implementation of the tree zipper, but only a suggestive notation. We have however told you enough that you should be able to implement it yourself. Or if you're lazy, you can read:
234
235 *       [[!wikipedia Zipper (data structure)]]
236 *       Huet, Gerard. ["Functional Pearl: The Zipper"](http://www.st.cs.uni-sb.de/edu/seminare/2005/advanced-fp/docs/huet-zipper.pdf) Journal of Functional Programming 7 (5): 549-554, September 1997.
237 *       As always, [Oleg](http://okmij.org/ftp/continuations/Continuations.html#zipper) takes this a few steps deeper.
238
239 ##Same-fringe using a tree zipper##
240
241 Recall back in [[Assignment4]], we asked you to enumerate the "fringe" of a leaf-labeled tree. Both of these trees:
242
243             .                .
244            / \              / \
245           .   3            1   .
246          / \                  / \
247         1   2                2   3
248
249 have the same fringe: `[1;2;3]`. We also asked you to write a function that determined when two trees have the same fringe. The way you approached that back then was to enumerate each tree's fringe, and then compare the two lists for equality. Today, and then again in a later class, we'll encounter two new ways to approach the problem of determining when two trees have the same fringe.
250
251
252 Supposing you did work out an implementation of the tree zipper, then one way to determine whether two trees have the same fringe would be: go downwards (and leftwards) in each tree as far as possible. Compare the targetted leaves. If they're different, stop because the trees have different fringes. If they're the same, then for each tree, move rightward if possible; if it's not (because you're at the rightmost position in a sibling list), more upwards then try again to move rightwards. Repeat until you are able to move rightwards. Once you do move rightwards, go downwards (and leftwards) as far as possible. Then you'll be targetted on the next leaf in the tree's fringe. The operations it takes to get to "the next leaf" may be different for the two trees. For example, in these trees:
253
254             .                .
255            / \              / \
256           .   3            1   .
257          / \                  / \
258         1   2                2   3
259
260 you won't move upwards at the same steps. Keep comparing "the next leafs" until they are different, or you exhaust the leafs of only one of the trees (then again the trees have different fringes), or you exhaust the leafs of both trees at the same time, without having found leafs with different labels. In this last case, the trees have the same fringe.
261
262 If your trees are very big---say, millions of leaves---you can imagine how this would be quicker and more memory-efficient than traversing each tree to construct a list of its fringe, and then comparing the two lists so built to see if they're equal. For one thing, the zipper method can abort early if the fringes diverge early, without needing to traverse or build a list containing the rest of each tree's fringe.
263
264 Let's sketch the implementation of this. We won't provide all the details for an implementation of the tree zipper, but we will sketch an interface for it.
265
266 First, we define a type for leaf-labeled, binary trees:
267
268         type 'a tree = Leaf of 'a | Node of ('a tree * 'a tree)
269
270 Next, the interface for our tree zippers. We'll help ourselves to OCaml's **record types**. These are nothing more than tuples with a pretty interface. Instead of saying:
271
272         # type blah = Blah of (int * int * (char -> bool));;
273
274 and then having to remember which element in the triple was which:
275
276         # let b1 = Blah (1, (fun c -> c = 'M'), 2);;
277         Error: This expression has type int * (char -> bool) * int
278        but an expression was expected of type int * int * (char -> bool)
279         # (* damnit *)
280         # let b1 = Blah (1, 2, (fun c -> c = 'M'));;
281         val b1 : blah = Blah (1, 2, <fun>)
282
283 records let you attach descriptive labels to the components of the tuple:
284
285         # type blah_record = { height : int; weight : int; char_tester : char -> bool };;
286         # let b2 = { height = 1; weight = 2; char_tester = fun c -> c = 'M' };;
287         val b2 : blah_record = {height = 1; weight = 2; char_tester = <fun>}
288         # let b3 = { height = 1; char_tester = (fun c -> c = 'K'); weight = 3 };; (* also works *)
289         val b3 : blah_record = {height = 1; weight = 3; char_tester = <fun>}
290
291 These were the strategies to extract the components of an unlabeled tuple:
292
293         let h = fst some_pair;; (* accessor functions fst and snd are only predefined for pairs *)
294
295         let (h, w, test) = b1;; (* works for arbitrary tuples *)
296
297         match b1 with
298         | (h, w, test) -> ...;; (* same as preceding *)
299
300 Here is how you can extract the components of a labeled record:
301
302         let h = b2.height;; (* handy! *)
303
304         let {height = h; weight = w; char_tester = test} = b2
305         in (* go on to use h, w, and test ... *)
306
307         match test with
308         | {height = h; weight = w; char_tester = test} ->
309                 (* go on to use h, w, and test ... *)
310
311 Anyway, using record types, we might define the tree zipper interface like so:
312
313         type 'a starred_tree = Root | Starring_Left of 'a starred_pair | Starring_Right of 'a starred_pair
314         and 'a starred_pair = { parent : 'a starred_tree; sibling: 'a tree }
315         and 'a zipper = { tree : 'a starred_tree; filler: 'a tree };;
316
317         let rec move_botleft (z : 'a zipper) : 'a zipper =
318             (* returns z if the targetted node in z has no children *)
319             (* else returns move_botleft (zipper which results from moving down and left in z) *)
320
321 <!--
322             let {tree; filler} = z
323             in match filler with
324             | Leaf _ -> z
325             | Node(left, right) ->
326                 let zdown = {tree = Starring_Left {parent = tree; sibling = right}; filler = left}
327                 in move_botleft zdown
328             ;;
329 -->
330
331         let rec move_right_or_up (z : 'a zipper) : 'a zipper option =
332             (* if it's possible to move right in z, returns Some (the result of doing so) *)
333             (* else if it's not possible to move any further up in z, returns None *)
334             (* else returns move_right_or_up (result of moving up in z) *)
335
336 <!--
337             let {tree; filler} = z
338             in match tree with
339             | Starring_Left {parent; sibling = right} -> Some {tree = Starring_Right {parent; sibling = filler}; filler = right}
340             | Root -> None
341             | Starring_Right {parent; sibling = left} ->
342                 let z' = {tree = parent; filler = Node(left, filler)}
343                 in move_right_or_up z'
344             ;;
345 -->
346
347 The following function takes an 'a tree and returns an 'a zipper focused on its root:
348
349         let new_zipper (t : 'a tree) : 'a zipper =
350             {tree = Root; filler = t}
351             ;;
352
353 Finally, we can use a mutable reference cell to define a function that enumerates a tree's fringe until it's exhausted:
354
355         let make_fringe_enumerator (t: 'a tree) =
356             (* create a zipper targetting the root of t *)
357             let zstart = new_zipper t
358             in let zbotleft = move_botleft zstart
359             (* create a refcell initially pointing to zbotleft *)
360             in let zcell = ref (Some zbotleft)
361             (* construct the next_leaf function *)
362             in let next_leaf () : 'a option =
363                 match !zcell with
364                 | None -> (* we've finished enumerating the fringe *)
365                     None
366                 | Some z -> (
367                     (* extract label of currently-targetted leaf *)
368                     let Leaf current = z.filler
369                     (* update zcell to point to next leaf, if there is one *)
370                     in let () = zcell := match move_right_or_up z with
371                         | None -> None
372                         | Some z' -> Some (move_botleft z')
373                     (* return saved label *)
374                     in Some current
375                 )
376             (* return the next_leaf function *)
377             in next_leaf
378             ;;
379
380 Here's an example of `make_fringe_enumerator` in action:
381
382         # let tree1 = Leaf 1;;
383         val tree1 : int tree = Leaf 1
384         # let next1 = make_fringe_enumerator tree1;;
385         val next1 : unit -> int option = <fun>
386         # next1 ();;
387         - : int option = Some 1
388         # next1 ();;
389         - : int option = None
390         # next1 ();;
391         - : int option = None
392         # let tree2 = Node (Node (Leaf 1, Leaf 2), Leaf 3);;
393         val tree2 : int tree = Node (Node (Leaf 1, Leaf 2), Leaf 3)
394         # let next2 = make_fringe_enumerator tree2;;
395         val next2 : unit -> int option = <fun>
396         # next2 ();;
397         - : int option = Some 1
398         # next2 ();;
399         - : int option = Some 2
400         # next2 ();;
401         - : int option = Some 3
402         # next2 ();;
403         - : int option = None
404         # next2 ();;
405         - : int option = None
406
407 You might think of it like this: `make_fringe_enumerator` returns a little subprogram that will keep returning the next leaf in a tree's fringe, in the form `Some ...`, until it gets to the end of the fringe. After that, it will keep returning `None`.
408
409 Using these fringe enumerators, we can write our `same_fringe` function like this:
410
411         let same_fringe (t1 : 'a tree) (t2 : 'a tree) : bool =
412                 let next1 = make_fringe_enumerator t1
413                 in let next2 = make_fringe_enumerator t2
414                 in let rec loop () : bool =
415                         match next1 (), next2 () with
416                         | Some a, Some b when a = b -> loop ()
417                         | None, None -> true
418                         | _ -> false
419                 in loop ()
420                 ;;
421
422 The auxiliary `loop` function will keep calling itself recursively until a difference in the fringes has manifested itself---either because one fringe is exhausted before the other, or because the next leaves in the two fringes have different labels. If we get to the end of both fringes at the same time (`next1 (), next2 ()` matches the pattern `None, None`) then we've established that the trees do have the same fringe.
423
424 The technique illustrated here with our fringe enumerators is a powerful and important one. It's an example of what's sometimes called **cooperative threading**. A "thread" is a subprogram that the main computation spawns off. Threads are called "cooperative" when the code of the main computation and the thread fixes when control passes back and forth between them. (When the code doesn't control this---for example, it's determined by the operating system or the hardware in ways that the programmer can't predict---that's called "preemptive threading.") Cooperative threads are also sometimes called *coroutines* or *generators*.
425
426 With cooperative threads, one typically yields control to the thread, and then back again to the main program, multiple times. Here's the pattern in which that happens in our `same_fringe` function:
427
428         main program            next1 thread            next2 thread
429         ------------            ------------            ------------
430         start next1
431         (paused)                        starting
432         (paused)                        calculate first leaf
433         (paused)                        <--- return it
434         start next2                     (paused)                        starting
435         (paused)                        (paused)                        calculate first leaf
436         (paused)                        (paused)                        <-- return it
437         compare leaves          (paused)                        (paused)
438         call loop again         (paused)                        (paused)
439         call next1 again        (paused)                        (paused)
440         (paused)                        calculate next leaf     (paused)
441         (paused)                        <-- return it           (paused)
442         ... and so on ...
443
444 If you want to read more about these kinds of threads, here are some links:
445
446 <!-- *  [[!wikipedia Computer_multitasking]]
447 *       [[!wikipedia Thread_(computer_science)]] -->
448 *       [[!wikipedia Coroutine]]
449 *       [[!wikipedia Iterator]]
450 *       [[!wikipedia Generator_(computer_science)]]
451 *       [[!wikipedia Fiber_(computer_science)]]
452 <!-- *  [[!wikipedia Green_threads]]
453 *       [[!wikipedia Protothreads]] -->
454
455 The way we built cooperative threads here crucially relied on two heavyweight tools. First, it relied on our having a data structure (the tree zipper) capable of being a static snapshot of where we left off in the tree whose fringe we're enumerating. Second, it relied on our using mutable reference cells so that we could update what the current snapshot (that is, tree zipper) was, so that the next invocation of the `next_leaf` function could start up again where the previous invocation left off.
456
457 In coming weeks, we'll learn about a different way to create threads, that relies on **continuations** rather than on those two tools. All of these tools are inter-related. As Oleg says, "Zipper can be viewed as a delimited continuation reified as a data structure." These different tools are also inter-related with monads. Many of these tools can be used to define the others. We'll explore some of the connections between them in the remaining weeks, but we encourage you to explore more.
458
459
460 ##Introducing Continuations##
461
462 A continuation is "the rest of the program." Or better: an **delimited continuation** is "the rest of the program, up to a certain boundary." An **undelimited continuation** is "the rest of the program, period."
463
464 Even if you haven't read specifically about this notion (for example, even if you haven't read Chris and Ken's work on using continuations in natural language semantics), you'll have brushed shoulders with it already several times in this course.
465
466 A naive semantics for atomic sentences will say the subject term is of type `e`, and the predicate of type `e -> t`, and that the subject provides an argument to the function expressed by the predicate.
467
468 Monatague proposed we instead take subject terms to be of type `(e -> t) -> t`, and that now it'd be the predicate (still of type `e -> t`) that provides an argument to the function expressed by the subject.
469
470 If all the subject did then was supply an `e` to the `e -> t` it receives as an argument, we wouldn't have gained anything we weren't already able to do. But of course, there are other things the subject can do with the `e -> t` it receives as an argument. For instance, it can check whether anything in the domain satisfies that `e -> t`; or whether most things do; and so on.
471
472 This inversion of who is the argument and who is the function receiving the argument is paradigmatic of working with continuations. We did the same thing ourselves back in the early days of the seminar, for example in our implementation of pairs. In the untyped lambda calculus, we identified the pair `(x, y)` with a function:
473
474         \handler. handler x y
475
476 A pair-handling function would accept the two elements of a pair as arguments, and then do something with one or both of them. The important point here is that the handler was supplied as an argument to the pair. Eventually, the handler would itself be supplied with arguments. But only after it was supplied as an argument to the pair. This inverts the order you'd expect about what is the data or argument, and what is the function that operates on it.
477
478 Consider a complex computation, such as:
479
480         1 + 2 * (1 - g (3 + 4))
481
482 Part of this computation---`3 + 4`---leads up to supplying `g` with an argument. The rest of the computation---`1 + 2 * (1 - ___)`---waits for the result of applying `g` to that argument and will go on to do something with it (inserting the result into the `___` slot). That "rest of the computation" can be regarded as a function:
483
484         \result. 1 + 2 * (1 - result)
485
486 This function will be applied to whatever is the result of `g (3 + 4)`. So this function can be called the *continuation* of that application of `g`. For some purposes, it's useful to be able to invert the function/argument order here, and rather than supplying the result of applying `g` to the continuation, we instead supply the continuation to `g`. Well, not to `g` itself, since `g` only wants a single `int` argument. But we might build some `g`-like function which accepts not just an `int` argument like `g` does, but also a continuation argument.
487
488 Go back and read the material on "Aborting a Search Through a List" in [[Week4]] for an example of doing this.
489
490 In very general terms, the strategy is to work with functions like this:
491
492         let g' k (i : int) =
493                 ... do stuff ...
494                 ... if you want to abort early, supply an argument to k ...
495                 ... do more stuff ...
496                 ... normal result
497         in let gcon = fun result -> 1 + 2 * (1 - result)
498         in gcon (g' gcon (3 + 4))
499
500 It's a convention to use variables like `k` for continuation arguments. If the function `g'` never supplies an argument to its contination argument `k`, but instead just finishes evaluating to a normal result, that normal result will be delivered to `g'`'s continuation `gcon`, just as happens when we don't pass around any explicit continuation variables.
501
502 The above snippet of OCaml code doesn't really capture what happens when we pass explicit continuation variables. For suppose that inside `g'`, we do supply an argument to `k`. That would go into the `result` parameter in `gcon`. But then what happens once we've finished evaluating the application of `gcon` to that `result`? In the OCaml snippet above, the final value would then bubble up through the context in the body of `g'` where `k` was applied, and eventually out to the final line of the snippet, where it once again supplied an argument to `gcon`. That's not what happens with a real continuation. A real continuation works more like this:
503
504         let g' k (i : int) =
505                 ... do stuff ...
506                 ... if you want to abort early, supply an argument to k ...
507                 ... do more stuff ...
508                 ... normal result
509         in let gcon = fun result ->
510                 let final_value = 1 + 2 * (1 - result)
511                 in end_program_with final_value
512         in gcon (g' gcon (3 + 4))
513
514 So once we've finished evaluating the application of `gcon` to a `result`, the program is finished. (This is how undelimited continuations behave. We'll discuss delimited continuations later.)
515
516 So now, guess what would be the result of doing the following:
517
518         let g' k (i : int) =
519                 1 + k i
520         in let gcon = fun result ->
521                 let final_value = (1, result)
522                 in end_program_with final_value
523         in gcon (g' gcon (3 + 4))
524
525 <!-- (1, 7) ... explain why not (1, 8) -->
526
527