放假闲聊:大家来聊聊 ios 开发和苹果生态开发吧。

查看 29|回复 3
作者:acorngyl   
本人十余年后端经历,从数据库存储到 server 全接触过,就是前端一眼黑。
只有前端少人的时候帮改过 jsp 和安卓,当 js 和 java 写的。😄😄😄
最近比较清闲,琢磨自己做点 ios 完玩儿,正好手头有个公司闲置的帐号,都冲了钱了,闲着也是闲着。
想请教下各位 ios 大神,现在做 ios 的东西,从哪入手比较合适呢?
前阵子看社区都是吐槽 swiftUI 的。我一直很好奇,swift 都出来十来年了吧,是没做起来吗?反正我周围都是 OC 项目。不太了具体情况。
还有现在 Mac 端开发都用什么技术呢? Mac 上 arm 后,现在是不是更推崇全终端开发了?
正赶上 Apple Intelligence 出来,比较关注以后苹果以后会提供什么 api ,会不会有改变现有交互方式的接口出来。大概 16 年前后,接触过 goolge 语音助手结合 app 操作,直到现在,语音操作还是文字转指令,然后抓取页面元素。感觉这种东西,和触屏操作没区别,效率反而更低。ai 系统需要一种新的交互方式。不知道以后苹果能给出什么答案。
本人对于交互,最早体验是 AIX 系统。最早的 unix 都是命令行。它出了“类似”光标点选菜单,算是早期的图形化。在上边一级一级选。选到最后,用户可以直接点最终操作,执行;或者有个选项生成命令,屏幕最下边有一行命令,就是之前一步一步选过来,拼起来的一条。如果对系统熟悉,可以不用这个图行化,直接敲命令或者写 shell ;如果不熟悉,可用用图形化操作,或者把生成的命令复制出来,再加工自己的 shell 。计算机是不需要图形界面干活的,它只需要指令就行了。图形化只是提升用户体验的手段,pc 有 pc 的 UI 风格,手机有手机 I 、UI 的。ai 如果仅仅是语音的话,语音应该有语音自己的 UI ,语音再去调自己的 api ,而不是手机 UI 外边套个“语音 UI”。
总之欢迎大家来吐槽,聊 ios 、苹果生态、ai 系统什么都行。
快放假嘛。提前祝大家假期快乐。🎉🎉🎉
aycclm   
Swift 和 SwiftUI 是两个东西,前者是开发语言,后者是一个使用 Swift 构建 UI 的方式
iOS 如果是新项目应该都是 Swift 开发了,SwiftUI 坑还是比较多,正经做产品的话,相比较更推荐 UIKit
Apple Intelligence 个人认为早期应该和直接调用 OpenAI API 不会有什么本质区别
qq2511296   
iOS 开发在国内基本很难找到工作了

beimenjun   
不是大神,分几点回答下:
1. “我周围都是 OC 项目” 个人感觉是你个人样本的问题。OC 已经死翘翘好几年了。
2. SwiftUI 只是一个声明式的苹果家的原生 UI 框架,现在还有大量的 iOS 项目使用 UIKit ,大量 macOS 项目使用 AppKit ,其中 UIKit 还是一个活着的,并且暂时看不到要终结的另外一个原生 UI 框架,AppKit 相对弱一些但是也没死。
3. 如果没有 UIKit 基础,可以直接用 SwiftUI ,声明式会比较容易出成果,SwiftUI 被吐槽的点除了声明式的通病外,有一些则其实是一个工程学难题:“复杂度不能被消灭,只能转移”,SwiftUI 就是转移了太多复杂度到自己内部,导致很多时候你遇到一些问题会很抓狂,抓狂也解决不了问题,各种 workaround 有些时候看得挺无语的,但是如果你不遇到那些问题,就会用得挺舒服。
4. Mac 上的原生开发氛围几种,分别是 AppKit ,UIKit (也就是很少人用的 Catalyst ),SwiftUI 三种。
5. Apple Intelligence 的开发者内容可以参考 https://developer.apple.com/apple-intelligence/
您需要登录后才可以回帖 登录 | 立即注册

返回顶部