Is er een manier waarop ik een iPhone vanaf een Macbook kan besturen?


Beste antwoord

Bij Google hebben we een robot (TouchBot) gebouwd om dit te doen.

Ik heb de teach-pendant voor een industriële robotcontroller van Toshiba reverse-engineered, en ik heb de capacitieve koppeling opgezet, wat vrij eenvoudig te realiseren is door een overtollige laptop cellulaire of 2,4 GHz wifi-antenne aan de “vinger” te bevestigen.

Dit vervangt de “zak met water” / “vleesantenne” die normaal vereist is voor het koppelen, en daarom zal een robotgestuurde stylus niet doen wat je verwacht.

Als onderdeel van hiervoor heb ik de techniek gepubliceerd, en verschillende onderzoekers in Duitsland hebben deze aangepast aan Bochs kunstmatige armen om het gebruik van aanraakapparatuur mogelijk te maken door mensen die gedwongen zijn protheses te gebruiken (iets wat voorheen niet mogelijk was).

Ik schreef alle robotactie bibliotheek en het onderwijzen van vervangende code voor hangers in Python. Ik geloof dat het op GitHub is gepubliceerd als onderdeel van Chromium OS, in de substructuur voor testen. Het was het laatste project dat ik deed voordat ik Google verliet.

Als het sindsdien is toegevoegd: de bedoeling was gebarenreplicatie om herkenningsalgoritmen te testen, veldpatronen op aanraakinvoerrasters, enzovoort, dus dat is waarschijnlijk wat er in zou zitten.

Technisch gezien is het mogelijk om alleen in software te doen met een paar gepubliceerde pakketten, maar ze werken alleen op gejailbreakte iPhones.

Wat ik denk zou oké zijn als je ze in een softwaretestlaboratorium zou gooien, maar besef dat aanraakgebeurtenissen heel veel gegevens met zich meebrengen, en nu Apple drukdetectie heeft toegevoegd, nog veel meer.

Houd er echter rekening mee dat de aanraakcontroller intern aanrakingen behandelt als regionale kegelvormige doorsneden, niet strikt als punten.

Wat dit betekent is dat als je puntgebeurtenissen simuleert, je zal het moeilijk hebben om het apparaat ervan te overtuigen dat je daadwerkelijk “vingers” gebruikt. Een robot heeft dit soort problemen natuurlijk niet.

Aan de andere kant (excuseer de woordspeling), is het een stuk eenvoudiger om dump te screenen en de werkelijke resultaten te vergelijken met de verwachte resultaten, dan het is om een ​​camera en beeldherkenning te gebruiken, en dat vereist ook het jailbreaken van de iPhone.

Aan de andere kant (hebben mensen er zoveel?), het probleem van het raken van precies één pixel in het doelgebied wanneer u denkt dat u het midden van het doel raakt, zal dit resulteren in valse successen voor softwareaanrakingen, zelfs als ze afwijken van het waarschijnlijke geometrische zwaartepunt van een daadwerkelijke aanraking (vertaling: wat de gebruiker aanraakt, zal niet zijn wat ze get).

De beste gok zou een fysieke robot zijn, met een gejailbreakte iPhone om werkelijke pixel-perfecte schermdumps te krijgen, wat je visuele output / aanraakinvoercoherentie zou geven voor het testen.

Antwoord

Ja, maar niet in het algemeen. Er zijn apps voor iOS die gegevens kunnen delen tussen de Mac en iPhone, enz.

Er zijn apps waarmee iPads als schermen kunnen fungeren of controllers voor de Mac.

Er zijn webapps zoals Find my Phone waarmee u deze kunt lokaliseren en van uw Mac kunt wissen.

Er zijn apps die kunnen communiceren met uw telefoon terwijl verbonden met de Mac via USB.

Met de iPhone kunt u berichten sturen, agendas maken, notities maken, telefoongesprekken voeren en fotos maken vanaf uw Mac.

Het beste wat u kunt doen is google de functie die je vanaf je Mac wilt bedienen, en kijk of er een app is om dat in te schakelen.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *