1 Combinators and Combinatory Logic
2 =================================
4 Combinatory logic is of interest here in part because it provides a
5 useful computational system that is equivalent to the Lambda Calculus,
6 but different from it. In addition, Combinatory Logic has a number of
7 applications in natural language semantics.  Exploring Combinatory
8 Logic will involve defining a notion of reduction different from the
9 one we have been using for the Lambda Calculus.  This will provide us
10 with a second parallel example when we're thinking through
11 topics such as evaluation strategies and recursion.
13 Lambda expressions that have no free variables are known as **combinators**. Here are some common ones:
15 >   **I** is defined to be `\x x`
17 >   **K** is defined to be `\x y. x`. That is, it throws away its
18 second argument. So `K x` is a constant function from any
19 (further) argument to `x`. ("K" for "constant".) Compare `K`
20 to our definition of `true`.
22 >   **S** is defined to be `\f g x. f x (g x)`.  This is a more
23 complicated operation, but is extremely versatile and useful
24 (see below): it copies its third argument and distributes it
25 over the first two arguments.
27 >   **fst** was our function for extracting the first element of an ordered pair: `\a b. a`. Compare this to `K` and `true` as well.
29 >   **snd** was our function for extracting the second element of an ordered pair: `\a b. b`. Compare this to our definition of `false`.
31 >   **B** is defined to be: `\f g x. f (g x)`. (So `B f g` is the composition `\x. f (g x)` of `f` and `g`.)
33 >   **C** is defined to be: `\f x y. f y x`. (So `C f` is a function like `f` except it expects its first two (curried) arguments in flipped order.)
35 >   **T** is defined to be: `\x y. y x`. (So `C` and `T` both reorder arguments, just in different ways.)
37 >   **W** is defined to be: `\f x . f x x`. (So `W f` accepts one argument and gives it to `f` twice. What is the meaning of `W multiply`?) <!-- \x. multiply x x === \x. square x -->
39 >   **ω** (that is, lower-case omega) is defined to be: `\x. x x`. Sometimes this combinator is called **M**. It and `W` both duplicate arguments, just in different ways. <!-- L is \uv.u(vv) -->
42 It's possible to build a logical system equally powerful as the Lambda
43 Calculus (and readily intertranslatable with it) using just
44 combinators, considered as *primitive operations*. (That is, we
45 refrain from defining them in terms of lambda expressions, as we did
46 above.)  Such a language doesn't have any variables in it: not just no
47 free variables, but no variables (or "bound positions") at all.
49 One can do that with a very spare set of basic combinators. These days
50 the standard base is just three combinators: `S`, `K`, and `I`.
51 (Though we'll see shortly that the behavior of `I` can be exactly
52 simulated by a combination of `S`'s and `K`'s.)  But it's possible to be
53 even more minimalistic, and get by with only a single combinator (see
54 links below for details). (And there are different single-combinator
55 bases you can choose.) <!-- Schoenfinkel already discovered one of them;
56 did Chris discover his? -->
58 There are some well-known linguistic applications of Combinatory
59 Logic, due to Anna Szabolcsi, Mark Steedman, and Pauline Jacobson.
60 They claim that natural language semantics is a combinatory system: that every
61 natural language denotation is a combinator.
63 For instance, Szabolcsi 1987 argues that reflexive pronouns are argument
64 duplicators.
66     everyone   hit           himself
67     S/(S!NP)   (S!NP)/NP     (S!NP)!((S!NP)/NP)
68     \f∀x[fx]   \y\z[HIT y z] \h\u[huu]
69                --------------------------------- here "hit" is an argument to "himself"
70                       S!NP     \u[HIT u u]
71     -------------------------------------------- here "hit himself" is an argument to "everyone"
72                       S        ∀x[HIT x x]
74 Notice that the semantic value of *himself* is exactly `W`.  The reflexive
75 pronoun in direct object position combines with the transitive verb "hit".  The
76 result is an intransitive verb phrase "hit himself" that takes a subject argument `u`, duplicates
77 that argument, and feeds the two copies to the transitive verb meaning.
79 Note that `W <~~> S(CI)`:
81     S(CI) ≡
82     S ((\f x y. f y x) (\x x)) ~~>
83     S (\x y. (\x x) y x) ~~>
84     S (\x y. y x) ≡
85     (\f g x. f x (g x)) (\x y. y x) ~~>
86     \g x. (\x y. y x) x (g x) ~~>
87     \g x. (g x) x ≡
88     W
90 ###A different set of reduction rules###
92 Instead of defining combinators in terms of antecedently understood lambda terms, we want to consider the view that takes the combinators as primitive, and understands them in terms of *what they do*. If we have the `I` combinator followed by any expression `X`,
93 `I` will take that expression as its argument and return that same expression as the result.  Diagrammatically:
95     IX ~~> X
97 That is, asume that `X` stands in for any expression.  Then if `X`
98 happens to be the expression `I`, this schematic pattern guarantees
99 that `II ~~> I`; if `X` happens to be the expression `SK`, the pattern
100 guarantees that `I(SK) ~~> SK`; and so on.  That is, `X` here is a
101 metavariable over expressions.
103 Thinking of this as a reduction rule, we can perform the following computation:
105     II(IX) ~~> I(IX) ~~> IX ~~> X
107 The reduction rule for `K` is also straightforward:
109     KXY ~~> X
111 That is, `K` throws away its second argument.  The reduction rule for `S` can be constructed by examining
112 the defining lambda term:
114     S ≡ \f g x. f x (g x)
116 `S` takes three arguments, duplicates the third argument, and feeds one copy to the first argument and the second copy to the second argument.  So:
118     SFGX ~~> FX(GX)
120 If the meaning of a function is nothing more than how it behaves with respect to its arguments,
121 these reduction rules capture the behavior of the combinators `S`, `K`, and `I` completely.
122 We can use these rules to compute without resorting to beta reduction.
124 For instance, we can show how the `I` combinator's behavior is simulated by a
125 certain crafty combination of `S`s and `K`s:
127     SKKX ~~> KX(KX) ~~> X
129 So the combinator `SKK` is equivalent to the combinator `I`. (Really, it could be `SKY` for any `Y`.)
131 These reduction rule have the same status with respect to Combinatory
132 Logic as beta-reduction and eta-reduction have with respect to
133 the Lambda Calculus: they are purely syntactic rules for transforming
134 one sequence of symbols (e.g., a redex) into another (a reduced
135 form).  It's worth noting that the reduction rules for Combinatory
136 Logic are considerably more simple than, say, beta reduction.  Also, since
137 there are no variables in Combinatory Logic, there is no need to worry
138 about variables colliding when we substitute.
140 Combinatory Logic is what you have when you choose a set of
141 combinators and regulate their behavior with a set of reduction
142 rules. As we said, the most common system uses `S`, `K`, and `I` as
143 defined here.
145 ###The equivalence of the untyped Lambda Calculus and Combinatory Logic###
147 We've claimed that Combinatory Logic is "equivalent to" the Lambda Calculus.  If
148 that's so, then `S`, `K`, and `I` must be enough to accomplish any computational task
149 imaginable.  Actually, `S` and `K` must suffice, since we've just seen that we can
150 simulate `I` using only `S` and `K`.  In order to get an intuition about what it
151 takes to be Turing Complete, <!-- FIXME -->
152 recall our discussion of the Lambda Calculus in
153 terms of a text editor.  A text editor has the power to transform any arbitrary
154 text into any other arbitrary text.
155 The way it does this is by deleting, copying, and reordering characters.  We've
156 already seen that `K` deletes its second argument, so we have deletion covered.
157 `S` duplicates and reorders, so we have some reason to hope that `S` and `K` are
158 enough to define arbitrary functions.
160 We've already established that the behavior of combinatory terms can be
161 perfectly mimicked by lambda terms: just replace each combinator with its
162 equivalent lambda term, i.e., replace `I` with `\x. x`, replace `K` with `\x y. x`,
163 and replace `S` with `\f g x. f x (g x)`.  So the behavior of any combination of
164 combinators in Combinatory Logic can be exactly reproduced by a lambda term.
166 How about the other direction?  Here is a method for converting an arbitrary
167 lambda term into an equivalent Combinatory Logic term using only `S`, `K`, and `I`.
168 Besides the intrinsic beauty of this mapping, and the importance of what it
169 says about the nature of binding and computation, it is possible to hear an
170 echo of computing with continuations in this conversion strategy (though you
171 wouldn't be able to hear these echos until we've covered a considerable portion
172 of the rest of the course).  In addition, there is a direct linguistic
173 application of this mapping in chapter 17 of Barker and Shan 2014, where it is
174 used to establish a correspondence between two natural language grammars, one
175 of which is based on lambda-like abstraction, the other of which is based on
176 Combinatory Logic-like manipulations.
178 [WARNING: the mapping from the lambda calculus to Combinatory Logic
179 has been changed since the class in which it was presented.  It now
180 matches the presentation in Barendregt.  The revised version is
181 cleaner, and more elegant.  If you spent a lot of time working to
182 understand the original version, there's good news and bad news.  The
183 bad news is that things have changed.  The good news is that the new
184 version described the same mapping as before, but does it in a cleaner
185 way.  That is, the CL term that a given lambda term maps onto hasn't
186 changed, only the details of how that CL term gets computed.  Sorry if
187 the changeup causes any distress!]
189 In order to establish the correspondence, we need to get a bit more
190 official about what counts as an expression in CL.  We'll endow CL
191 with an infinite stock of variable symbols, just like the lambda
192 calculus, including `x`, `y`, and `z`.  In addition, `S`, `K`, and `I`
193 are expressions in CL.  Finally, `(XY)` is in CL for any CL
194 expressions `X` and `Y`.  So examples of CL expressions include
195 `x`, `(xy)`, `Sx`, `SK`, `(x(SK))`, `(K(IS))`, and so on.  When we
196 omit parentheses, the assumption will be left associativity, so that
197 `XYZ == ((XY)Z)`.
199 It may seem wierd to allow variables in CL.  The reason that is
200 necessary is because we're trying to show that every lambda term can
201 be translated into an equivalent CL term.  Since some lambda terms
202 contain free variables, we need to provide a translation for free
203 variables.  As you might expect, it will turn out that whenever the
204 lambda term in question contains no free variables (i.e., is a
205 combinator), its translation in CL will also contain no variables.
207 Assume that for any lambda term T, [T] is the equivalent Combinatory
208 Logic term.  Then we can define the [.] mapping as follows.
210      1. [a]              a
211      2. [\aX]            @a[X]
212      3. [(XY)]           ([X][Y])
214      4. @aa              I
215      5. @aX              KX           if a is not in X
216      6. @a(XY)           S(@aX)(@aY)
218 Think of `@aX` as a psuedo-lambda abstract.
220 It's easy to understand these rules based on what `S`, `K` and `I` do.
222 Rule (1) says that variables are mapped to themselves. If the original
223 lambda expression had no free variables in it, then any such
224 translations will only be temporary. The variable will later get
225 eliminated by the application of other rules.
227 Rule (2) says that the way to translate an application is to
228 first translate the body (i.e., `[X]`), and then prefix a kind of
229 temporary psuedo-lambda built from `@` and the original variable.
231 Rule (3) says that the translation of an application of `X` to `Y` is
232 the application of the transtlation of `X` to the translation of `Y`.
234 As we'll see, the first three rules sweep through the lambda term,
235 changing each lambda to an @.
237 Rules (4) through (6) tell us how to eliminate all the `@`'s.
239 In rule (4), if we have `@aa`, we need a CL expression that behaves
240 like the lambda term `\aa`.  Obviously, `I` is the right choice here.
242 In rule (5), if we're binding into an expression that doesn't contain
243 any variables that need binding, then we need a CL term that behaves
244 the same as `\aX` would if `X` didn't contain `a` as a free variable.
245 Well, how does `\aX` behave?  When `\aX` occurs in the head position
246 of a redex, then no matter what argument it occurs with, it throws
247 away its argument and returns `X`.  In other words, `\aX` is a
248 constant function returning `X`, which is exactly the behavior
249 we get by prefixing `K`.
251 The easiest way to grasp rule (6) is to consider the following claim:
253     \a(XY) <~~> S(\aX)(\aY)
255 To prove it to yourself, just substitute `(\xyz.xz(yz))` in for `S`
256 and reduce.
258 Persuade yourself that if the original lambda term contains no free
259 variables --- i.e., is a combinator --- then the translation will
260 consist only of `S`, `K`, and `I` (plus parentheses).
262 Various, slightly differing translation schemes from Combinatory Logic to the
263 Lambda Calculus are also possible. These generate different metatheoretical
264 correspondences between the two calculi. Consult Hindley and Seldin for
265 details.
267 Also, note that the combinatorial proof theory needs to be
268 strengthened with axioms beyond anything we've here described in order to make
269 [M] convertible with [N] whenever the original lambda-terms M and N are
270 convertible.  But then, we've been a bit cavalier about giving the full set of
271 reduction rules for the Lambda Calculus in a similar way.  <!-- FIXME -->
273 For instance, one issue we mentioned in the notes on [[Reduction
274 Strategies|week3_reduction_strategies]] is whether reduction rules (in
275 either the Lambda Calculus or Combinatory Logic) apply to embedded
276 expressions.  Often, we do want that to happen, but making it happen
279 Let's see the translation rules in action.  We'll start by translating
280 the combinator we use to represent false:
282        [\t\ff]
283     == @t[\ff]      rule 2
284     == @t(@ff)      rule 2
285     == @tI          rule 4
286     == KI           rule 5
288 Let's check that the translation of the `false` boolean behaves as expected by feeding it two arbitrary arguments:
290     KIXY ~~> IY ~~> Y
292 Throws away the first argument, returns the second argument---yep, it works.
294 Here's a more elaborate example of the translation.  Let's say we want
295 to establish that combinators can reverse order, so we set out to
296 translate the **T** combinator (`\x y. y x`):
298        [\x\y(yx)]
299     == @x[\y(yx)]
300     == @x(@y[(yx)])
301     == @x(@y([y][x]))
302     == @x(@y(yx))
303     == @x(S(@yy)(@yx))
304     == @x(SI(@yx))
305     == @x(SI(Kx))
306     == S (@x(SI)) (@x(Kx))
307     == S (K(SI)) (S (@xK) (@xx))
308     == S (K(SI)) (S (KK) I)
310 By now, you should realize that all rules (1) through (3) do is sweep
311 through the lambda term turning lambdas into @'s.
313 We can test this translation by seeing if it behaves like the original lambda term does.
314 The orginal lambda term lifts its first argument (think of it as reversing the order of its two arguments):
316     S (K(SI)) (S(KK)I) X Y ~~>
317     (K(SI))X ((S(KK)I) X) Y ~~>
318     SI ((KK)X (IX)) Y ~~>
319     SI (K X) Y ~~>
320     IY (KXY) ~~>
321     Y X
323 Voilà: the combinator takes any X and Y as arguments, and returns Y applied to X.
325 One very nice property of Combinatory Logic is that there is no need to worry about alphabetic variance, or
326 variable collision---since there are no (bound) variables, there is no possibility of accidental variable capture,
327 and so reduction can be performed without any fear of variable collision.  We haven't mentioned the intricacies of
328 alpha equivalence or safe variable substitution, but they are in fact quite intricate.  (The best way to gain
329 an appreciation of that intricacy is to write a program that performs lambda reduction.)
331 Back to linguistic applications: one consequence of the equivalence between the Lambda Calculus and Combinatory
332 Logic is that anything that can be done by binding variables can just as well be done with combinators.
333 This has given rise to a style of semantic analysis called Variable-Free Semantics (in addition to
334 Szabolcsi's papers, see, for instance,
335 Pauline Jacobson's 1999 *Linguistics and Philosophy* paper, "Towards a variable-free Semantics").
337 Somewhat ironically, reading strings of combinators is so difficult that most practitioners of variable-free semantics
338 express their meanings using the Lambda Calculus rather than Combinatory Logic. Perhaps they should call their
339 enterprise *Free Variable*-Free Semantics.
341 A philosophical connection: Quine went through a phase in which he developed a variable-free logic.
343 > Quine, Willard. 1960. "Variables explained away" <cite>Proceedings of the American Philosophical Society</cite>.  Volume 104: 343--347.  Also in W. V. Quine.  1960. <cite>Selected Logical Papers</cite>.  Random House: New York.  227--235.
345 The reason this was important to Quine is similar to the worry that using
346 non-referring expressions such as `Santa Claus` might commit one to believing in
347 non-existent things.  Quine's slogan was that "to be is to be the value of a
348 variable."  What this was supposed to mean is that if and only if an object
349 could serve as the value of some variable, we are committed to recognizing the
350 existence of that object in our ontology.  Obviously, if there *are* no
351 variables, this slogan has to be rethought.
353 Quine did not appear to appreciate that Shoenfinkel had already invented Combinatory Logic, though
354 he later wrote an introduction to Shoenfinkel's key paper reprinted in Jean
355 van Heijenoort (ed) 1967 <cite>From Frege to Goedel, a source book in mathematical logic, 1879--1931</cite>.
357 Cresswell also developed a variable-free approach of some philosophical and linguistic interest
358 in two books in the 1990s.
360 A final linguistic application: Steedman's Combinatory Categorial Grammar, where the "Combinatory" is
361 from Combinatory Logic (see especially his 2012 book, <cite>Taking Scope</cite>).  Steedman attempts to build
362 a syntax/semantics interface using a small number of combinators, including `T` (`\x y. y x`), `B` (`\f g x. f (g x)`),
363 and our friend `S`.  Steedman used Smullyan's fanciful bird
364 names for these combinators: Thrush, Bluebird, and Starling.
366 Many of these combinatory logics, in particular, the SKI system,
367 are Turing Complete. In other words: every computation we know how to describe can be represented in a logical system consisting of only primitive combinators, even some systems with only a *single* primitive combinator.
368 <!-- FIXME -->
370 ###A connection between Combinatory Logic and Sentential Logic###
372 The combinators `K` and `S` correspond to two well-known axioms of sentential logic:
374     AK: A ⊃ (B ⊃ A)
375     AS: (A ⊃ (B ⊃ C)) ⊃ ((A ⊃ B) ⊃ (A ⊃ C))
377 When these two axiom schemas are combined with the rule of modus ponens (from `A` and `A ⊃ B`, conclude `B`), the resulting proof system
378 is complete for the "implicational fragment" of intuitionistic logic. (That is, the part of intuitionistic logic you get when `⊃` is your only connective. To get a complete proof system for *classical* sentential logic, you
379 need only add one more axiom schema, constraining the behavior of a new connective `¬`.)
380 The way we'll favor viewing the relationship between these axioms
381 and the `S` and `K` combinators is that the axioms correspond to *type
382 schemas* for the combinators. This will become more clear once we have
383 a theory of types in view.
385 Here's more to read about Combinatory Logic. Surely the most entertaining exposition is Smullyan's [[!wikipedia To_Mock_a_Mockingbird]].
386 Other sources include:
388 *   [[!wikipedia Combinatory logic]] at Wikipedia
389 *   [Combinatory logic](http://plato.stanford.edu/entries/logic-combinatory/) at the Stanford Encyclopedia of Philosophy
390 *   [[!wikipedia SKI combinatory calculus]]
391 *   [[!wikipedia B,C,K,W system]]
392 *   [Chris Barker's Iota and Jot](http://semarch.linguistics.fas.nyu.edu/barker/Iota/)
393 *   Jeroen Fokker, "The Systematic Construction of a One-combinator Basis for Lambda-Terms" <cite>Formal Aspects of Computing</cite> 4 (1992), pp. 776-780. <http://people.cs.uu.nl/jeroen/article/combinat/combinat.ps>